ارتباط ناشناخته. ارتباط بدون سانسور. ارتباط برقرار نمی‌شود. سایت اصلی احتمالاً زیر سانسور است. ارتباط با سایت (های) موازی برقرار شد. ارتباط برقرار نمی‌شود. ارتباط اینترنت خود را امتحان کنید. احتمال دارد اینترنت به طور سراسری قطع شده باشد. ادامه مطلب

مهندسی انتخابات در عصر دیجیتال: تهدیدهای شخصی‌سازی و جنگ سایبری بر دموکراسی

«آواتارهای تبلیغاتی» و الگوریتم‌های پیش‌بینی‌کننده، با ایجاد حباب‌های فیلتری و دستکاری روان‌شناختی، ادراک شهروندان را تحریف کرده و انتخابات آزاد را تهدید می‌کنند. باید توجه داشت که شخصی‌سازی به‌عنوان شکلی از کنترل اجتماعی و بازتولید روابط قدرت نابرابر تفسیر می‌شود. در این میان لشکرهای سایبری، مانند گروه‌های تحت حمایت ایران، از ابزارهای ابتدایی به عملیات پیچیده روانی و زیرساختی تحول یافته‌اند.

آنچه که پیش از این گفته شد:

در گزارش پیشین به بررسی نقش فن‌آوری در بازتولید و تشدید نابرابری‌های اجتماعی در کشورهایی مانند چین، هند، ایران و ترکیه پرداختیم، با تمرکز بر سه عامل اصلی: سوگیری‌های الگوریتمی، طراحی همگن پلتفرم‌ها و مدل‌های تجاری مبتنی بر نظارت. در چین، سیستم‌هایی مانند امتیازدهی اعتباری اجتماعی و الگوریتم‌های استخدام، گروه‌های حاشیه‌ای را به دلیل داده‌های متمایل به نخبگان شهری کنار می‌گذارند، در حالی که نظارت گسترده در اپلیکیشن‌هایی مثل وی‌چت نابرابری اطلاعاتی را تقویت می‌کند. در هند، الگوریتم‌های استخدام و فین‌تک، جوامع حاشیه‌ای و زنان را به دلیل سوگیری‌های تاریخی و دسترسی نابرابر به اینترنت محروم می‌کنند. در ایران، پلتفرم‌های تحت نظارت دولتی با داده‌های محدود، دیدگاه‌های اقلیت را سرکوب می‌کنند، و در ترکیه، الگوریتم‌های رسانه‌های اجتماعی محتوای گروه‌های اکثریت را ترجیح می‌دهند و شکاف دیجیتال را تعمیق می‌کنند. برای کاهش این تبعیض‌ها، راهکارهایی مانند چارچوب‌های قانونی شفاف، استفاده از داده‌های متنوع، مشارکت عمومی و آموزش سواد دیجیتال پیشنهاد شده است.

اکنون این بحث را پی می‌گیریم:

الی پارایزر در فصل «آنچه می‌خواهید، چه بخواهید و چه نخواهید» به رشد فن‌آوری‌های شخصی‌سازی و تأثیر آن‌ها بر زندگی روزمره می‌پردازد. پارایزر با مثال «آواتار تبلیغاتی» (advertar) نشان می‌دهد که چگونه موجودات مجازی با اهداف تجاری، مانند یک پروفایل جعلی در فیسبوک، می‌توانند از ارتباطات اجتماعی برای جمع‌آوری داده‌های کاربران بهره‌برداری کنند. با پیشرفت حسگرها، سرورهای عظیم و فن‌آوری‌های واقعیت افزوده، شخصی‌سازی به لایه‌های عمیق‌تری از زندگی نفوذ خواهد کرد و محیط‌هایی هوشمند خلق می‌کند که با ترجیحات و حالات ما سازگار می‌شوند. پارایزر درباره قدرت فزاینده این فن‌آوری‌ها به ما هشدار می‌دهد و می‌گوید این احتمال وجود دارد که این فن‌آوری‌‌ها ما را به سمتی ببرند که لزوماً مقصد دلخواهمان نیست، به‌ویژه با نفوذ تبلیغات در فضاهای اجتماعی و شخصی.

شخصی‌سازی دیجیتال و کنترل اجتماعی

 شخصی‌سازی فن‌آوری‌های دیجیتال را می‌توان به مثابه شکلی نوین از کنترل اجتماعی تفسیر کرد که از طریق مکانیسم‌های ظریف اما قدرتمند «مهندسی انتخاب» عمل می‌کند. پارایزر با مثال آواتارهای تبلیغاتی نشان می‌دهد که چگونه فن‌آوری‌های شخصی‌ساز، با ایجاد حلقه‌های بازخورد رفتاری (بر اساس نظریهٔ اسکینر[۱])، نه تنها ترجیحات کاربران را ردیابی می‌کنند، بلکه به تدریج چارچوب ذهنی آن‌ها را نیز بازتعریف می‌کنند - فرآیندی که گیدنز[۲] آن را «بازاندیشی نهادی» می‌نامد. این فن‌آوری‌ها با تولید محیط‌های به ظاهر «سازگار با کاربر»، در واقع منطق مصرف‌گرایی را در لایه‌های عمیق‌تر زندگی روزمره نهادینه می‌کنن. از این منظر، هشدار پارایزر دربارهٔ انحراف از «مقصد دلخواه» بازتابی از نگرانی‌ها در این‌باره است که فن‌آوری‌های شخصی‌ساز - علیرغم ادعای خنثی بودن، به ابزاری برای بازتولید روابط قدرت نابرابر (بین شرکت‌های فن‌آوری و کاربران) تبدیل شوند.

فن‌آوری‌های شخصی‌سازی و تحلیل داده‌ها، که امروزه در پلتفرم‌های دیجیتال مانند فیسبوک فراگیر شده‌اند، به ابزاری قدرتمند برای «مهندسی انتخاب» در انتخابات به‌ظاهر آزاد تبدیل شده‌اند. این فن‌آوری‌ها با بهره‌گیری از الگوریتم‌های پیش‌بینی‌کننده و پروفایل‌سازی روان‌شناختی، مانند آنچه در ماجرای کمبریج آنالیتیکا[۳] در انتخابات ۲۰۱۶ آمریکا دیده شد، محتوای سیاسی را به‌گونه‌ای تنظیم می‌کنند که با ترجیحات، ترس‌ها یا تعصبات هر فرد هم‌خوانی داشته باشد. این فرآیند، از طریق ایجاد «حباب‌های فیلتری»، درک شهروندان از واقعیت‌های سیاسی را تحریف می‌کند و آن‌ها را در معرض اطلاعاتی گزینشی قرار می‌دهد که به‌تدریج دیدگاه‌هایشان را شکل می‌دهد، بدون آنکه متوجه این جهت‌دهی شوند.

این فن‌آوری‌ها نه‌تنها ادراک را دستکاری می‌کنند، بلکه با تقویت احساسات و قطبی‌سازی اجتماعی، تأثیر خود را عمیق‌تر می‌کنند. الگوریتم‌ها به محتوای هیجانی، به‌ویژه آن‌هایی که خشم یا ترس را برمی‌انگیزند، اولویت می‌دهند، زیرا چنین محتوایی تعامل بیشتری ایجاد می‌کند. این امر به تشدید شکاف‌های اجتماعی منجر می‌شود، همان‌طور که در استفاده از ربات‌های شبکه‌های اجتماعی برای انتشار اخبار جعلی و تحریک احساسات در انتخابات مختلف مشاهده شده است. برخلاف تبلیغات سنتی، این دستکاری به‌صورت خزنده و نامرئی عمل می‌کند و با بهره‌گیری از نظریه «تغییر تدریجی ترجیحات» (Nudge Theory) [۴] حتی بر انتخاب‌های ناخودآگاه کاربران اثر می‌گذارد. مطالعات علوم اعصاب شناختی تأیید می‌کنند که محتوای شخصی‌سازی‌شده می‌تواند به‌شکلی ظریف اما مؤثر، ذهنیت افراد را بازسازی کند.

این روند، اصالت انتخابات آزاد را به خطر می‌اندازد، زیرا شهروندان به‌جای تصمیم‌گیری آگاهانه، تحت تأثیر دستکاری‌های الگوریتمی قرار می‌گیرند و شکاف اطلاعاتی بین بازیگران سیاسی مجهز به داده‌ها و مردم عادی عمیق‌تر می‌شود. برای مقابله با این تهدید، پژوهشگرانی مانند الی پارایزر راه‌حل‌هایی مانند شفافیت در معیارهای هدف‌گیری تبلیغات سیاسی، وضع قوانین محدودکننده (مشابه[۵] GDPR در اتحادیه اروپا) برای جلوگیری از سوءاستفاده از داده‌های روان‌شناختی، و تقویت سواد دیجیتال شهروندان به‌منظور شناسایی محتوای دستکاری‌شده پیشنهاد کرده‌اند. این چالش نشان‌دهنده نیاز فوری به بازتعریف مفهوم «آزادی انتخاب» در عصر دیجیتال است، جایی که فن‌آوری نه‌تنها ابزار اطلاع‌رسانی، بلکه اهرمی برای هدایت اراده جمعی شده است.

پانویس:

[۱] بی. اف. اسکینر (B.F. Skinner) روان‌شناس برجسته رفتارگرا، نظریه شرطی‌سازی کنشگر (Operant Conditioning) را توسعه داد که در آن رفتارها از طریق پیامدها (پاداش یا تنبیه) تقویت یا تضعیف می‌شوند. حلقه‌های بازخورد رفتاری، که در آن یک رفتار منجر به پیامدی می‌شود که خود رفتار بعدی را تحت تأثیر قرار می‌دهد، اساس این نظریه است.

[۲] آنتونی گیدنز نظریه بازاندیشی نهادی (Institutional Reflexivity) را در چارچوب نظریه ساختاربندی (Structuration Theory) خود مطرح می‌کند که در جوامع مدرن، نهادها و افراد به طور مداوم در حال بازاندیشی (Reflexivity) درباره شیوه‌های سنتی عمل هستند. برخلاف جوامع سنتی که مبتنی بر عادات و رسوم پایدارند، در مدرنیته، نهادها (مانند خانواده، اقتصاد یا سیاست) تحت تأثیر دانش بازاندیشانه و اطلاعات جدید دائماً بازتعریف می‌شوند. این فرآیند منجر به تغییرات پویا و خوداصلاح‌گر در ساختارهای اجتماعی می‌شود.

[۳] ماجرای کمبریج آنالیتیکا یک رسوایی بزرگ در سوءاستفاده از داده‌های کاربران فیسبوک برای تأثیرگذاری بر انتخابات سیاسی بود. این شرکت بریتانیایی-آمریکایی، با همکاری محققی به نام الکساندر کوگان، از یک اپلیکیشن تست شخصیت در فیسبوک استفاده کرد تا اطلاعات شخصی ۸۷ میلیون کاربر (از جمله دوستانشان) را بدون اجازه جمع‌آوری کند. این داده‌ها برای طراحی تبلیغات هدفمند در کارزار انتخاباتی دونالد ترامپ (۲۰۱۶) و همه‌پرسی برگزیت به کار رفت و ادعا شد که با تحلیل روانشناختی کاربران، رأی‌دهندگان کلیدی را دستکاری کرده‌اند. پس از افشاگری توسط کریستوفر وایلی (کارمند سابق شرکت)، فیسبوک تحت فشار قرار گرفت و کمبریج آنالیتیکا در سال ۲۰۱۸ منحل شد.

[۴] نظریه تلنگر (Nudge Theory)، ارائه‌شده توسط ریچارد تیلر و کاس سانستین در سال ۲۰۰۸، بیان می‌کند که با طراحی انتخاب‌ها به شیوه‌ای ظریف و غیراجباری (تلنگر)، می‌توان رفتار افراد را به سمت تصمیم‌گیری بهتر هدایت کرد بدون محدود کردن آزادی انتخاب. برای مثال، قرار دادن گزینه‌های سالم‌تر در دسترس‌تر در کافه‌تریا یا تنظیم پیش‌فرض برای ثبت‌نام در طرح‌های بازنشستگی، نمونه‌هایی از تلنگر هستند. این نظریه در سیاست‌گذاری عمومی، بازاریابی و طراحی سیستم‌ها کاربرد گسترده‌ای دارد.

[۵] قانون حفاظت از داده‌های عمومی (GDPR) اتحادیه اروپا، که از مه ۲۰۱۸ اجرایی شد، چارچوبی قانونی برای حفاظت از داده‌های شخصی شهروندان اتحادیه اروپا است. این قانون سازمان‌ها را ملزم می‌کند که داده‌ها را با رضایت صریح جمع‌آوری کنند، شفافیت در پردازش داده‌ها ارائه دهند و حقوق کاربران مانند دسترسی، اصلاح یا حذف داده‌ها را تضمین کنند. نقض GDPR می‌تواند جریمه‌های سنگین تا ۲۰ میلیون یورو یا ۴ درصد درآمد سالانه جهانی شرکت را در پی داشته باشد.

بیشتر بخوانید:

این مطلب را پسندیدید؟ کمک مالی شما به ما این امکان را خواهد داد که از این نوع مطالب بیشتر منتشر کنیم.

آیا مایل هستید ما را در تحقیق و نوشتن تعداد بیشتری از این‌گونه مطالب یاری کنید؟

.در حال حاضر امکان دریافت کمک مخاطبان ساکن ایران وجود ندارد

توضیح بیشتر در مورد اینکه چطور از ما حمایت کنید

نظر بدهید

در پرکردن فرم خطایی صورت گرفته

نظرها

نظری وجود ندارد.