ارتباط ناشناخته. ارتباط بدون سانسور. ارتباط برقرار نمی‌شود. سایت اصلی احتمالاً زیر سانسور است. ارتباط با سایت (های) موازی برقرار شد. ارتباط برقرار نمی‌شود. ارتباط اینترنت خود را امتحان کنید. احتمال دارد اینترنت به طور سراسری قطع شده باشد. ادامه مطلب

چگونه الگوریتم‌ها هویت، باورها و عاملیت ما را در عصر دیجیتال شکل می‌دهند

الگوریتم‌های شخصی‌سازی‌شده، با تحلیل داده‌های کاربران و ایجاد «پروفایل متقاعدسازی»، نه‌تنها رفتار مصرفی افراد را پیش‌بینی می‌کنند، بلکه هویت و باورهای آن‌ها را نیز در حلقه‌های فکری محدود شکل می‌دهند. این فرآیند، اگرچه کارایی بازاریابی را افزایش می‌دهد، با کاهش تنوع اطلاعات و تقویت پیش‌فرض‌ها، به قطبی‌شدن اجتماعی، دستکاری روان‌شناختی و حتی تبعیض الگوریتمی منجر می‌شود.

آنچه که پیش از این گفته شد:

 رژیم‌های اقتدارگرا مانند چین و ایران با ابزارهایی مانند «دیوار آتشین بزرگ»، «فیلترینگ هوشمند»، و نظارت گسترده از طریق هوش مصنوعی، گفتمان عمومی را به‌صورت متمرکز کنترل کرده و با سرکوب رسانه‌های مستقل و ایجاد حباب‌های اطلاعاتی، تنوع اطلاعاتی و خلاقیت را خفه می‌کنند. در هند، ترکیبی از سانسور قانونی و فشار غیرمستقیم بر پلتفرم‌های دیجیتال، روایت‌های ملی‌گرایانه را تقویت می‌کند، اما وجود رسانه‌های مستقل و جامعه مدنی امکان نقد محدود را فراهم می‌آورد. این تفاوت‌ها نشان می‌دهد که هرچند مهندسی افکار در همه نظام‌ها وجود دارد، شدت تمرکز، پاسخگویی، و تأثیر بر گفتمان دموکراتیک در دموکراسی‌ها و رژیم‌های اقتدارگرا به‌طور قابل‌توجهی متفاوت است.

اکنون ادامه این بحث را پی می‌گیریم:

اِلی پارایزر در بررسی مفهوم «حباب فیلتر» و تأثیرات آن بر رفتار و هویت افراد توضیح می‌دهد که الگوریتم‌های شخصی‌سازی‌شده، مانند آن‌هایی که در پلتفرم‌هایی مثل فیس‌بوک و آمازون استفاده می‌شوند، با تحلیل داده‌های کاربران، محتوا و پیشنهادهایی متناسب با علایق و رفتارهای آن‌ها ارائه می‌دهند. این فرآیند، که پارایزر آن را «پروفایل متقاعدسازی» می‌نامد، نه‌تنها نوع محصولاتی که فرد ممکن است بخرد را پیش‌بینی می‌کند، بلکه نحوه استدلال و تبلیغاتی که او را تحت تأثیر قرار می‌دهند را نیز شناسایی می‌کند. این شخصی‌سازی می‌تواند اثربخشی بازاریابی را تا ۳۰ تا ۴۰ درصد افزایش دهد، اما در همان حال، با هدایت توجه افراد به محتوایی که با پیش‌فرض‌هایشان هم‌راستاست، آن‌ها را در یک حلقه هویتی محدود می‌کند که پارایزر آن را «حلقه تو» می‌نامد.

این حلقه‌های هویتی می‌توانند پیامدهای عمیقی داشته باشند، زیرا رسانه‌های شخصی‌سازی‌شده نه‌تنها هویت فرد را شکل می‌دهند، بلکه باورها و اولویت‌های او را نیز تحت تأثیر قرار می‌دهند. او می‌نویسد:

اگر متقاعدسازی شخصی‌سازی‌شده برای محصولات کار کند، برای ایده‌ها هم می‌تواند کار کند. بدون شک زمان‌ها، مکان‌ها و سبک‌های استدلالی وجود دارند که ما را مستعد باور به آنچه به ما گفته می‌شود می‌کنند. پیام‌رسانی ناخودآگاه غیرقانونی است زیرا ما تشخیص می‌دهیم برخی روش‌های استدلال اساساً تقلب هستند؛ آماده‌سازی افراد با کلماتی که به صورت ناخودآگاه نمایش داده می‌شوند برای فروش چیزها، بازی منصفانه‌ای نیست. اما تصور کمپین‌های سیاسی که رأی‌دهندگان را در زمان‌هایی هدف قرار می‌دهند که می‌توانند انگیزه‌های منطقی‌تر ما را دور بزنند، چندان دور از ذهن نیست.

و در ادامه می‌افزاید:

ما به طور غریزی قدرت افشای انگیزه‌ها و خواسته‌های عمیق خود و نحوه عملکردمان را درک می‌کنیم، به همین دلیل است که اکثر ما این کار را در زندگی روزمره فقط با افرادی انجام می‌دهیم که واقعاً به آن‌ها اعتماد داریم. این رابطه متقارن است: شما دوستانتان را تقریباً به همان اندازه که آن‌ها شما را می‌شناسند، می‌شناسید. اما پروفایل متقاعدسازی می‌تواند به صورت نامرئی انجام شود - نیازی نیست بدانید که این داده‌ها از شما جمع‌آوری می‌شوند- و بنابراین نامتقارن است. برخلاف برخی اشکال پروفایل‌سازی که آشکارا انجام می‌شوند (مثل نتفلیکس)، پروفایل متقاعدسازی وقتی آشکار شود، ناکارآمد می‌شود.

پارایزر هشدار می‌دهد که این سیستم‌ها با تقویت علایق موجود و کاهش تنوع اطلاعات، می‌توانند افراد را در دام الگوهای فکری محدود نگه دارند و حتی به دستکاری روان‌شناختی منجر شوند. برای مثال، الگوریتم‌ها ممکن است لحظات آسیب‌پذیری فرد را شناسایی کرده و از آن برای ترغیب به خرید یا پذیرش ایده‌های خاص سوءاستفاده کنند. او همچنین به خطراتی مانند تبعیض الگوریتمی اشاره می‌کند، در این معنا که پیش‌بینی‌های مبتنی بر داده ممکن است به قضاوت‌های ناعادلانه منجر شود. پارایزر بر نیاز به رویکردهای متواضعانه‌تر در طراحی الگوریتم‌ها تأکید می‌کند که با آزمون فرضیه‌ها و پذیرش خطا، از افتادن در تله کلیشه‌سازی و پیش‌بینی‌های نادرست جلوگیری کنند.

در مجموع پارایزر نشان می‌دهد که حباب فیلتر صرفاً یک مسئله فنی نیست، بلکه بازتابی از تنش بین کارایی و اخلاق در عصر داده‌محور است. حل این چالش مستلزم همکاری طراحان، قانون‌گذاران و کاربران برای ایجاد تعادلی بین شخصی‌سازی و آزادی شناختی است.

پیامدهای اجتماعی حباب فیلتر و شخصی‌سازی افراطی محتوا

پیامدهای اجتماعی حباب فیلتر و شخصی‌سازی افراطی محتوا عمیق و چندبعدی است: این پدیده با محدود کردن مواجهه کاربران با دیدگاه‌های متنوع، به تدریج فضای مشترک گفتگو را از بین می‌برد و جامعه را به جزایر جداگانه فکری تقسیم می‌کند که در آن افراد نه‌تنها با یکدیگر توافق ندارند، بلکه حتی در تعریف واقعیت‌های اساسی نیز دچار اختلاف می‌شوند. این وضعیت به تشدید قطبی‌شدن اجتماعی، کاهش تاب‌آوری در برابر اطلاعات نادرست و تضعیف ظرفیت برای حل مسائل جمعی منجر می‌شود. از سوی دیگر، تقویت مداوم کلیشه‌ها و پیش‌فرض‌ها از طریق الگوریتم‌ها می‌تواند نابرابری‌های ساختاری را عمیق‌تر کند، زیرا گروه‌های حاشیه‌نشین کمتر فرصت نمایش دیدگاه‌های خود را پیدا می‌کنند. در بلندمدت، این روند بنیان‌های دموکراسی را تهدید می‌کند، چرا که شهروندان برای تصمیم‌گیری آگاهانه نیازمند دسترسی به طیف وسیعی از اطلاعات و نظرگاه‌ها هستند.

از دیدگاه کارل مانهایم، حباب فیلتر را می‌توان نمونه‌ای از «ایدئولوژی مدرن تکنولوژیک» [۱]دانست که با مکانیسم‌های نامرئی، معرفت‌های رقیب را حذف و «واقعیت اجتماعی» را به شکلی گزینشی و تحریف‌شده بازنمایی می‌کند. مانهایم در کتاب «ایدئولوژی و اتوپیا» (۱۹۲۹) استدلال می‌کند که ایدئولوژی‌ها نه تنها به عنوان نظام‌های فکری، بلکه به عنوان ابزارهای کنترل اجتماعی عمل می‌کنند که با تعریف «واقعیت مشروع»، امکان تفکر خارج از چارچوب‌های مسلط را محدود می‌سازند. الگوریتم‌های شخصی‌سازی‌شده در پلتفرم‌هایی مانند گوگل و فیسبوک، با اولویت‌دادن به محتوای همسو با ترجیحات کاربران، عملاً «ایدئولوژی دیجیتالی» جدیدی خلق می‌کنند که در آن تنوع دیدگاه‌ها به نفع یکنواختی گفتمانی قربانی می‌شود. این پدیده مشابه عملکرد نهادهای سنتی قدرت است که به تعبیر مانهایم با «مشروع‌سازی معرفتی»، هژمونی خود را تثبیت می‌کنند.

مانهایم در تحلیل خود بین «ایدئولوژی خاص» (تحریف آگاهانه برای توجیه منافع گروهی) و «ایدئولوژی کلی» (چارچوب‌های ناخودآگاه فکری که کل جامعه را شکل می‌دهند) تمایز قائل می‌شود. حباب فیلتر را می‌توان مصداقی از ایدئولوژی کلی دانست، چرا که کاربران اغلب از تحریف‌های الگوریتمی آگاه نیستند و آن را به عنوان «واقعیت عینی» می‌پذیرند. این فرآیند در نهایت به «انجماد فکری» و تضعیف گفت‌وگوی دموکراتیک منجر می‌شود، چرا که امکان مواجهه با دیدگاه‌های متضاد را از بین می‌برد. در جهان سوم، این مسئله با چالش‌هایی مانند انحصار فن‌آوری توسط شرکت‌های غربی و محدودیت‌های دولتی تشدید می‌شود.

از منظر فکری پسااستعمارگرایان (مانند ادوارد سعید[۲]) حباب فیلتر را به عنوان ابزار جدیدی برای استعمار دیجیتالی است که از طریق آن، گفتمان‌های مسلط غربی (یا نخبگان تکنولوژیک) صداهای حاشیه‌ای را به حاشیه می‌رانند. الگوریتم‌ها با اولویت‌دادن به محتوایی که بازتاب‌دهنده هنجارهای فرهنگی، سیاسی یا اقتصادی گروه‌های قدرتمند است، امکان بازنمایی معرفت‌های غیرغربی، بومی یا ضدسیستمی را کاهش می‌دهند. برای مثال، زبان‌ها، روایت‌ها یا مسائل جوامع جنوب جهانی (Global South) اغلب در حباب‌های فیلتر غربی نادیده گرفته می‌شوند. این پدیده نه‌تنها به تداوم رابطه نابرابر مرکز-حاشیه در عصر دیجیتال کمک می‌کند، بلکه حتی «سوژه‌بودن» (عاملیت) کاربران حاشیه‌ای را نیز زیر سؤال می‌برد، چرا که الگوریتم‌ها آن‌ها را صرفاً به عنوان «داده‌های مصرفی» (و نه تولیدکنندگان فعال معرفت) طبقه‌بندی می‌کنند. از این منظر، حباب فیلتر بازتولیدکننده امپریالیسم فرهنگی در لباسی جدید است.

پانویس:

[۱] کارل مانهایم، ایدئولوژی و اتوپیا: درآمدی به جامعه‌شناسی معرفت، ترجمه‌ی فریبرز مجیدی (تهران: انتشارات سمت، ۱۳۹۵).

(Karl Mannheim, Ideology and Utopia: An Introduction to the Sociology of Knowledge, trans. Louis Wirth and Edward Shils, London: Routledge, 1991 [1936]).

[۲] ادوارد سعید، شرق‌شناسی، ترجمه‌ی لادن حیدری (تهران: نشر نی، ۱۳۹۷).

(Edward W. Said, Orientalism, New York: Pantheon Books, 1978).

در همین زمینه:

این مطلب را پسندیدید؟ کمک مالی شما به ما این امکان را خواهد داد که از این نوع مطالب بیشتر منتشر کنیم.

آیا مایل هستید ما را در تحقیق و نوشتن تعداد بیشتری از این‌گونه مطالب یاری کنید؟

.در حال حاضر امکان دریافت کمک مخاطبان ساکن ایران وجود ندارد

توضیح بیشتر در مورد اینکه چطور از ما حمایت کنید

نظر بدهید

در پرکردن فرم خطایی صورت گرفته

نظرها

نظری وجود ندارد.