چگونه الگوریتمها هویت، باورها و عاملیت ما را در عصر دیجیتال شکل میدهند
الگوریتمهای شخصیسازیشده، با تحلیل دادههای کاربران و ایجاد «پروفایل متقاعدسازی»، نهتنها رفتار مصرفی افراد را پیشبینی میکنند، بلکه هویت و باورهای آنها را نیز در حلقههای فکری محدود شکل میدهند. این فرآیند، اگرچه کارایی بازاریابی را افزایش میدهد، با کاهش تنوع اطلاعات و تقویت پیشفرضها، به قطبیشدن اجتماعی، دستکاری روانشناختی و حتی تبعیض الگوریتمی منجر میشود.
آنچه که پیش از این گفته شد:
رژیمهای اقتدارگرا مانند چین و ایران با ابزارهایی مانند «دیوار آتشین بزرگ»، «فیلترینگ هوشمند»، و نظارت گسترده از طریق هوش مصنوعی، گفتمان عمومی را بهصورت متمرکز کنترل کرده و با سرکوب رسانههای مستقل و ایجاد حبابهای اطلاعاتی، تنوع اطلاعاتی و خلاقیت را خفه میکنند. در هند، ترکیبی از سانسور قانونی و فشار غیرمستقیم بر پلتفرمهای دیجیتال، روایتهای ملیگرایانه را تقویت میکند، اما وجود رسانههای مستقل و جامعه مدنی امکان نقد محدود را فراهم میآورد. این تفاوتها نشان میدهد که هرچند مهندسی افکار در همه نظامها وجود دارد، شدت تمرکز، پاسخگویی، و تأثیر بر گفتمان دموکراتیک در دموکراسیها و رژیمهای اقتدارگرا بهطور قابلتوجهی متفاوت است.
اکنون ادامه این بحث را پی میگیریم:
اِلی پارایزر در بررسی مفهوم «حباب فیلتر» و تأثیرات آن بر رفتار و هویت افراد توضیح میدهد که الگوریتمهای شخصیسازیشده، مانند آنهایی که در پلتفرمهایی مثل فیسبوک و آمازون استفاده میشوند، با تحلیل دادههای کاربران، محتوا و پیشنهادهایی متناسب با علایق و رفتارهای آنها ارائه میدهند. این فرآیند، که پارایزر آن را «پروفایل متقاعدسازی» مینامد، نهتنها نوع محصولاتی که فرد ممکن است بخرد را پیشبینی میکند، بلکه نحوه استدلال و تبلیغاتی که او را تحت تأثیر قرار میدهند را نیز شناسایی میکند. این شخصیسازی میتواند اثربخشی بازاریابی را تا ۳۰ تا ۴۰ درصد افزایش دهد، اما در همان حال، با هدایت توجه افراد به محتوایی که با پیشفرضهایشان همراستاست، آنها را در یک حلقه هویتی محدود میکند که پارایزر آن را «حلقه تو» مینامد.
این حلقههای هویتی میتوانند پیامدهای عمیقی داشته باشند، زیرا رسانههای شخصیسازیشده نهتنها هویت فرد را شکل میدهند، بلکه باورها و اولویتهای او را نیز تحت تأثیر قرار میدهند. او مینویسد:
اگر متقاعدسازی شخصیسازیشده برای محصولات کار کند، برای ایدهها هم میتواند کار کند. بدون شک زمانها، مکانها و سبکهای استدلالی وجود دارند که ما را مستعد باور به آنچه به ما گفته میشود میکنند. پیامرسانی ناخودآگاه غیرقانونی است زیرا ما تشخیص میدهیم برخی روشهای استدلال اساساً تقلب هستند؛ آمادهسازی افراد با کلماتی که به صورت ناخودآگاه نمایش داده میشوند برای فروش چیزها، بازی منصفانهای نیست. اما تصور کمپینهای سیاسی که رأیدهندگان را در زمانهایی هدف قرار میدهند که میتوانند انگیزههای منطقیتر ما را دور بزنند، چندان دور از ذهن نیست.
و در ادامه میافزاید:
ما به طور غریزی قدرت افشای انگیزهها و خواستههای عمیق خود و نحوه عملکردمان را درک میکنیم، به همین دلیل است که اکثر ما این کار را در زندگی روزمره فقط با افرادی انجام میدهیم که واقعاً به آنها اعتماد داریم. این رابطه متقارن است: شما دوستانتان را تقریباً به همان اندازه که آنها شما را میشناسند، میشناسید. اما پروفایل متقاعدسازی میتواند به صورت نامرئی انجام شود - نیازی نیست بدانید که این دادهها از شما جمعآوری میشوند- و بنابراین نامتقارن است. برخلاف برخی اشکال پروفایلسازی که آشکارا انجام میشوند (مثل نتفلیکس)، پروفایل متقاعدسازی وقتی آشکار شود، ناکارآمد میشود.
پارایزر هشدار میدهد که این سیستمها با تقویت علایق موجود و کاهش تنوع اطلاعات، میتوانند افراد را در دام الگوهای فکری محدود نگه دارند و حتی به دستکاری روانشناختی منجر شوند. برای مثال، الگوریتمها ممکن است لحظات آسیبپذیری فرد را شناسایی کرده و از آن برای ترغیب به خرید یا پذیرش ایدههای خاص سوءاستفاده کنند. او همچنین به خطراتی مانند تبعیض الگوریتمی اشاره میکند، در این معنا که پیشبینیهای مبتنی بر داده ممکن است به قضاوتهای ناعادلانه منجر شود. پارایزر بر نیاز به رویکردهای متواضعانهتر در طراحی الگوریتمها تأکید میکند که با آزمون فرضیهها و پذیرش خطا، از افتادن در تله کلیشهسازی و پیشبینیهای نادرست جلوگیری کنند.
در مجموع پارایزر نشان میدهد که حباب فیلتر صرفاً یک مسئله فنی نیست، بلکه بازتابی از تنش بین کارایی و اخلاق در عصر دادهمحور است. حل این چالش مستلزم همکاری طراحان، قانونگذاران و کاربران برای ایجاد تعادلی بین شخصیسازی و آزادی شناختی است.
پیامدهای اجتماعی حباب فیلتر و شخصیسازی افراطی محتوا
پیامدهای اجتماعی حباب فیلتر و شخصیسازی افراطی محتوا عمیق و چندبعدی است: این پدیده با محدود کردن مواجهه کاربران با دیدگاههای متنوع، به تدریج فضای مشترک گفتگو را از بین میبرد و جامعه را به جزایر جداگانه فکری تقسیم میکند که در آن افراد نهتنها با یکدیگر توافق ندارند، بلکه حتی در تعریف واقعیتهای اساسی نیز دچار اختلاف میشوند. این وضعیت به تشدید قطبیشدن اجتماعی، کاهش تابآوری در برابر اطلاعات نادرست و تضعیف ظرفیت برای حل مسائل جمعی منجر میشود. از سوی دیگر، تقویت مداوم کلیشهها و پیشفرضها از طریق الگوریتمها میتواند نابرابریهای ساختاری را عمیقتر کند، زیرا گروههای حاشیهنشین کمتر فرصت نمایش دیدگاههای خود را پیدا میکنند. در بلندمدت، این روند بنیانهای دموکراسی را تهدید میکند، چرا که شهروندان برای تصمیمگیری آگاهانه نیازمند دسترسی به طیف وسیعی از اطلاعات و نظرگاهها هستند.
از دیدگاه کارل مانهایم، حباب فیلتر را میتوان نمونهای از «ایدئولوژی مدرن تکنولوژیک» [۱]دانست که با مکانیسمهای نامرئی، معرفتهای رقیب را حذف و «واقعیت اجتماعی» را به شکلی گزینشی و تحریفشده بازنمایی میکند. مانهایم در کتاب «ایدئولوژی و اتوپیا» (۱۹۲۹) استدلال میکند که ایدئولوژیها نه تنها به عنوان نظامهای فکری، بلکه به عنوان ابزارهای کنترل اجتماعی عمل میکنند که با تعریف «واقعیت مشروع»، امکان تفکر خارج از چارچوبهای مسلط را محدود میسازند. الگوریتمهای شخصیسازیشده در پلتفرمهایی مانند گوگل و فیسبوک، با اولویتدادن به محتوای همسو با ترجیحات کاربران، عملاً «ایدئولوژی دیجیتالی» جدیدی خلق میکنند که در آن تنوع دیدگاهها به نفع یکنواختی گفتمانی قربانی میشود. این پدیده مشابه عملکرد نهادهای سنتی قدرت است که به تعبیر مانهایم با «مشروعسازی معرفتی»، هژمونی خود را تثبیت میکنند.
مانهایم در تحلیل خود بین «ایدئولوژی خاص» (تحریف آگاهانه برای توجیه منافع گروهی) و «ایدئولوژی کلی» (چارچوبهای ناخودآگاه فکری که کل جامعه را شکل میدهند) تمایز قائل میشود. حباب فیلتر را میتوان مصداقی از ایدئولوژی کلی دانست، چرا که کاربران اغلب از تحریفهای الگوریتمی آگاه نیستند و آن را به عنوان «واقعیت عینی» میپذیرند. این فرآیند در نهایت به «انجماد فکری» و تضعیف گفتوگوی دموکراتیک منجر میشود، چرا که امکان مواجهه با دیدگاههای متضاد را از بین میبرد. در جهان سوم، این مسئله با چالشهایی مانند انحصار فنآوری توسط شرکتهای غربی و محدودیتهای دولتی تشدید میشود.
از منظر فکری پسااستعمارگرایان (مانند ادوارد سعید[۲]) حباب فیلتر را به عنوان ابزار جدیدی برای استعمار دیجیتالی است که از طریق آن، گفتمانهای مسلط غربی (یا نخبگان تکنولوژیک) صداهای حاشیهای را به حاشیه میرانند. الگوریتمها با اولویتدادن به محتوایی که بازتابدهنده هنجارهای فرهنگی، سیاسی یا اقتصادی گروههای قدرتمند است، امکان بازنمایی معرفتهای غیرغربی، بومی یا ضدسیستمی را کاهش میدهند. برای مثال، زبانها، روایتها یا مسائل جوامع جنوب جهانی (Global South) اغلب در حبابهای فیلتر غربی نادیده گرفته میشوند. این پدیده نهتنها به تداوم رابطه نابرابر مرکز-حاشیه در عصر دیجیتال کمک میکند، بلکه حتی «سوژهبودن» (عاملیت) کاربران حاشیهای را نیز زیر سؤال میبرد، چرا که الگوریتمها آنها را صرفاً به عنوان «دادههای مصرفی» (و نه تولیدکنندگان فعال معرفت) طبقهبندی میکنند. از این منظر، حباب فیلتر بازتولیدکننده امپریالیسم فرهنگی در لباسی جدید است.
پانویس:
[۱] کارل مانهایم، ایدئولوژی و اتوپیا: درآمدی به جامعهشناسی معرفت، ترجمهی فریبرز مجیدی (تهران: انتشارات سمت، ۱۳۹۵).
(Karl Mannheim, Ideology and Utopia: An Introduction to the Sociology of Knowledge, trans. Louis Wirth and Edward Shils, London: Routledge, 1991 [1936]).
[۲] ادوارد سعید، شرقشناسی، ترجمهی لادن حیدری (تهران: نشر نی، ۱۳۹۷).
(Edward W. Said, Orientalism, New York: Pantheon Books, 1978).
نظرها
نظری وجود ندارد.