مهندسی انتخابات در عصر دیجیتال: تهدیدهای شخصیسازی و جنگ سایبری بر دموکراسی
«آواتارهای تبلیغاتی» و الگوریتمهای پیشبینیکننده، با ایجاد حبابهای فیلتری و دستکاری روانشناختی، ادراک شهروندان را تحریف کرده و انتخابات آزاد را تهدید میکنند. باید توجه داشت که شخصیسازی بهعنوان شکلی از کنترل اجتماعی و بازتولید روابط قدرت نابرابر تفسیر میشود. در این میان لشکرهای سایبری، مانند گروههای تحت حمایت ایران، از ابزارهای ابتدایی به عملیات پیچیده روانی و زیرساختی تحول یافتهاند.
آنچه که پیش از این گفته شد:
در گزارش پیشین به بررسی نقش فنآوری در بازتولید و تشدید نابرابریهای اجتماعی در کشورهایی مانند چین، هند، ایران و ترکیه پرداختیم، با تمرکز بر سه عامل اصلی: سوگیریهای الگوریتمی، طراحی همگن پلتفرمها و مدلهای تجاری مبتنی بر نظارت. در چین، سیستمهایی مانند امتیازدهی اعتباری اجتماعی و الگوریتمهای استخدام، گروههای حاشیهای را به دلیل دادههای متمایل به نخبگان شهری کنار میگذارند، در حالی که نظارت گسترده در اپلیکیشنهایی مثل ویچت نابرابری اطلاعاتی را تقویت میکند. در هند، الگوریتمهای استخدام و فینتک، جوامع حاشیهای و زنان را به دلیل سوگیریهای تاریخی و دسترسی نابرابر به اینترنت محروم میکنند. در ایران، پلتفرمهای تحت نظارت دولتی با دادههای محدود، دیدگاههای اقلیت را سرکوب میکنند، و در ترکیه، الگوریتمهای رسانههای اجتماعی محتوای گروههای اکثریت را ترجیح میدهند و شکاف دیجیتال را تعمیق میکنند. برای کاهش این تبعیضها، راهکارهایی مانند چارچوبهای قانونی شفاف، استفاده از دادههای متنوع، مشارکت عمومی و آموزش سواد دیجیتال پیشنهاد شده است.
اکنون این بحث را پی میگیریم:
الی پارایزر در فصل «آنچه میخواهید، چه بخواهید و چه نخواهید» به رشد فنآوریهای شخصیسازی و تأثیر آنها بر زندگی روزمره میپردازد. پارایزر با مثال «آواتار تبلیغاتی» (advertar) نشان میدهد که چگونه موجودات مجازی با اهداف تجاری، مانند یک پروفایل جعلی در فیسبوک، میتوانند از ارتباطات اجتماعی برای جمعآوری دادههای کاربران بهرهبرداری کنند. با پیشرفت حسگرها، سرورهای عظیم و فنآوریهای واقعیت افزوده، شخصیسازی به لایههای عمیقتری از زندگی نفوذ خواهد کرد و محیطهایی هوشمند خلق میکند که با ترجیحات و حالات ما سازگار میشوند. پارایزر درباره قدرت فزاینده این فنآوریها به ما هشدار میدهد و میگوید این احتمال وجود دارد که این فنآوریها ما را به سمتی ببرند که لزوماً مقصد دلخواهمان نیست، بهویژه با نفوذ تبلیغات در فضاهای اجتماعی و شخصی.
شخصیسازی دیجیتال و کنترل اجتماعی
شخصیسازی فنآوریهای دیجیتال را میتوان به مثابه شکلی نوین از کنترل اجتماعی تفسیر کرد که از طریق مکانیسمهای ظریف اما قدرتمند «مهندسی انتخاب» عمل میکند. پارایزر با مثال آواتارهای تبلیغاتی نشان میدهد که چگونه فنآوریهای شخصیساز، با ایجاد حلقههای بازخورد رفتاری (بر اساس نظریهٔ اسکینر[۱])، نه تنها ترجیحات کاربران را ردیابی میکنند، بلکه به تدریج چارچوب ذهنی آنها را نیز بازتعریف میکنند - فرآیندی که گیدنز[۲] آن را «بازاندیشی نهادی» مینامد. این فنآوریها با تولید محیطهای به ظاهر «سازگار با کاربر»، در واقع منطق مصرفگرایی را در لایههای عمیقتر زندگی روزمره نهادینه میکنن. از این منظر، هشدار پارایزر دربارهٔ انحراف از «مقصد دلخواه» بازتابی از نگرانیها در اینباره است که فنآوریهای شخصیساز - علیرغم ادعای خنثی بودن، به ابزاری برای بازتولید روابط قدرت نابرابر (بین شرکتهای فنآوری و کاربران) تبدیل شوند.
فنآوریهای شخصیسازی و تحلیل دادهها، که امروزه در پلتفرمهای دیجیتال مانند فیسبوک فراگیر شدهاند، به ابزاری قدرتمند برای «مهندسی انتخاب» در انتخابات بهظاهر آزاد تبدیل شدهاند. این فنآوریها با بهرهگیری از الگوریتمهای پیشبینیکننده و پروفایلسازی روانشناختی، مانند آنچه در ماجرای کمبریج آنالیتیکا[۳] در انتخابات ۲۰۱۶ آمریکا دیده شد، محتوای سیاسی را بهگونهای تنظیم میکنند که با ترجیحات، ترسها یا تعصبات هر فرد همخوانی داشته باشد. این فرآیند، از طریق ایجاد «حبابهای فیلتری»، درک شهروندان از واقعیتهای سیاسی را تحریف میکند و آنها را در معرض اطلاعاتی گزینشی قرار میدهد که بهتدریج دیدگاههایشان را شکل میدهد، بدون آنکه متوجه این جهتدهی شوند.
این فنآوریها نهتنها ادراک را دستکاری میکنند، بلکه با تقویت احساسات و قطبیسازی اجتماعی، تأثیر خود را عمیقتر میکنند. الگوریتمها به محتوای هیجانی، بهویژه آنهایی که خشم یا ترس را برمیانگیزند، اولویت میدهند، زیرا چنین محتوایی تعامل بیشتری ایجاد میکند. این امر به تشدید شکافهای اجتماعی منجر میشود، همانطور که در استفاده از رباتهای شبکههای اجتماعی برای انتشار اخبار جعلی و تحریک احساسات در انتخابات مختلف مشاهده شده است. برخلاف تبلیغات سنتی، این دستکاری بهصورت خزنده و نامرئی عمل میکند و با بهرهگیری از نظریه «تغییر تدریجی ترجیحات» (Nudge Theory) [۴] حتی بر انتخابهای ناخودآگاه کاربران اثر میگذارد. مطالعات علوم اعصاب شناختی تأیید میکنند که محتوای شخصیسازیشده میتواند بهشکلی ظریف اما مؤثر، ذهنیت افراد را بازسازی کند.
این روند، اصالت انتخابات آزاد را به خطر میاندازد، زیرا شهروندان بهجای تصمیمگیری آگاهانه، تحت تأثیر دستکاریهای الگوریتمی قرار میگیرند و شکاف اطلاعاتی بین بازیگران سیاسی مجهز به دادهها و مردم عادی عمیقتر میشود. برای مقابله با این تهدید، پژوهشگرانی مانند الی پارایزر راهحلهایی مانند شفافیت در معیارهای هدفگیری تبلیغات سیاسی، وضع قوانین محدودکننده (مشابه[۵] GDPR در اتحادیه اروپا) برای جلوگیری از سوءاستفاده از دادههای روانشناختی، و تقویت سواد دیجیتال شهروندان بهمنظور شناسایی محتوای دستکاریشده پیشنهاد کردهاند. این چالش نشاندهنده نیاز فوری به بازتعریف مفهوم «آزادی انتخاب» در عصر دیجیتال است، جایی که فنآوری نهتنها ابزار اطلاعرسانی، بلکه اهرمی برای هدایت اراده جمعی شده است.
پانویس:
[۱] بی. اف. اسکینر (B.F. Skinner) روانشناس برجسته رفتارگرا، نظریه شرطیسازی کنشگر (Operant Conditioning) را توسعه داد که در آن رفتارها از طریق پیامدها (پاداش یا تنبیه) تقویت یا تضعیف میشوند. حلقههای بازخورد رفتاری، که در آن یک رفتار منجر به پیامدی میشود که خود رفتار بعدی را تحت تأثیر قرار میدهد، اساس این نظریه است.
[۲] آنتونی گیدنز نظریه بازاندیشی نهادی (Institutional Reflexivity) را در چارچوب نظریه ساختاربندی (Structuration Theory) خود مطرح میکند که در جوامع مدرن، نهادها و افراد به طور مداوم در حال بازاندیشی (Reflexivity) درباره شیوههای سنتی عمل هستند. برخلاف جوامع سنتی که مبتنی بر عادات و رسوم پایدارند، در مدرنیته، نهادها (مانند خانواده، اقتصاد یا سیاست) تحت تأثیر دانش بازاندیشانه و اطلاعات جدید دائماً بازتعریف میشوند. این فرآیند منجر به تغییرات پویا و خوداصلاحگر در ساختارهای اجتماعی میشود.
[۳] ماجرای کمبریج آنالیتیکا یک رسوایی بزرگ در سوءاستفاده از دادههای کاربران فیسبوک برای تأثیرگذاری بر انتخابات سیاسی بود. این شرکت بریتانیایی-آمریکایی، با همکاری محققی به نام الکساندر کوگان، از یک اپلیکیشن تست شخصیت در فیسبوک استفاده کرد تا اطلاعات شخصی ۸۷ میلیون کاربر (از جمله دوستانشان) را بدون اجازه جمعآوری کند. این دادهها برای طراحی تبلیغات هدفمند در کارزار انتخاباتی دونالد ترامپ (۲۰۱۶) و همهپرسی برگزیت به کار رفت و ادعا شد که با تحلیل روانشناختی کاربران، رأیدهندگان کلیدی را دستکاری کردهاند. پس از افشاگری توسط کریستوفر وایلی (کارمند سابق شرکت)، فیسبوک تحت فشار قرار گرفت و کمبریج آنالیتیکا در سال ۲۰۱۸ منحل شد.
[۴] نظریه تلنگر (Nudge Theory)، ارائهشده توسط ریچارد تیلر و کاس سانستین در سال ۲۰۰۸، بیان میکند که با طراحی انتخابها به شیوهای ظریف و غیراجباری (تلنگر)، میتوان رفتار افراد را به سمت تصمیمگیری بهتر هدایت کرد بدون محدود کردن آزادی انتخاب. برای مثال، قرار دادن گزینههای سالمتر در دسترستر در کافهتریا یا تنظیم پیشفرض برای ثبتنام در طرحهای بازنشستگی، نمونههایی از تلنگر هستند. این نظریه در سیاستگذاری عمومی، بازاریابی و طراحی سیستمها کاربرد گستردهای دارد.
[۵] قانون حفاظت از دادههای عمومی (GDPR) اتحادیه اروپا، که از مه ۲۰۱۸ اجرایی شد، چارچوبی قانونی برای حفاظت از دادههای شخصی شهروندان اتحادیه اروپا است. این قانون سازمانها را ملزم میکند که دادهها را با رضایت صریح جمعآوری کنند، شفافیت در پردازش دادهها ارائه دهند و حقوق کاربران مانند دسترسی، اصلاح یا حذف دادهها را تضمین کنند. نقض GDPR میتواند جریمههای سنگین تا ۲۰ میلیون یورو یا ۴ درصد درآمد سالانه جهانی شرکت را در پی داشته باشد.
نظرها
نظری وجود ندارد.