فنآوری و نابرابری: چگونه الگوریتمها و طراحی دیجیتال شکافهای اجتماعی را تعمیق میکنند
این متن به بررسی نقش فنآوری در بازتولید و تشدید نابرابریهای اجتماعی در کشورهایی مانند چین، هند، ایران و ترکیه میپردازد، با تمرکز بر سه عامل اصلی: سوگیریهای الگوریتمی، طراحی همگن پلتفرمها و مدلهای تجاری مبتنی بر نظارت. برای کاهش این تبعیضها، راهکارهایی مانند چارچوبهای قانونی شفاف، استفاده از دادههای متنوع، مشارکت عمومی و آموزش سواد دیجیتال پیشنهاد شده است.
آنچه که پیش از این گفته شد:
در مقاله پیشین گفتیم که الی پارایز انگیزههای کارآفرینان فنآوری، از جمله مارک زاکربرگ و پیتر تیل، و تناقضات بین ادعاهای آنها و تأثیرات واقعیشان بر جامعه را بررسی میکند. او با تحلیل مصاحبه زاکربرگ در سال ۲۰۱۰، جاهطلبی و تمایل به امپراتوریسازی را در کنار لذت خلاقیت، محرکهای اصلی موفقیت استارتاپهایی چون فیسبوک میداند، اما هشدار میدهد که تمرکز قدرت در دست گروهی همگن و غیرمسئول میتواند به تصمیمگیریهای خطرناک منجر شود. پارایزر دیدگاههای غیرمتعارف تیل، مانند رد دموکراسی و ایدههای عجیب چون «دریاسازی»، را نمونهای از خطر نفوذ نخبگان فنآوری میبیند. در مقابل، او از کارآفرینانی مانند اسکات هیفرمن، بنیانگذار MeetUp.com، سخن میگوید که فنآوری را در خدمت پیوندهای اجتماعی به کار میگیرند، اما تأکید میکند که بسیاری از مهندسان فنآوری به پروژههای کماهمیت اولویت میدهند. با استناد به قانون کرنزبرگ و نقدهایی از سافیا نوبل و دیگران، پارایزر نشان میدهد که فنآوری، به دلیل بازتولید سوگیریها و نابرابریها از طریق الگوریتمها، طراحی نخبهگرا و مدلهای تجاری نظارتی، نیازمند بازنگری در طراحی و مسئولیتپذیری اجتماعی است تا به جای خدمت به بازار، به حل مشکلات واقعی جامعه کمک کند.
اکنون ادامه این بحث را پی میگیریم:
تأثیر عمیق فنآوری در بازتولید و تشدید نابرابریهای اجتماعی در کشورهایی مانند چین، هند، ایران و ترکیه نمودهای مشخصی دارد که از سه مسیر اصلی ذکرشده (سوگیریهای الگوریتمی، طراحی همگن پلتفرمها، و مدلهای تجاری مبتنی بر نظارت) ناشی میشود.
در چین، الگوریتمهای هوش مصنوعی در سیستمهایی مانند امتیازدهی اعتباری اجتماعی (Social Credit System) و پلتفرمهای استخدام، سوگیریهای ساختاری را بازتولید میکنند. برای مثال، الگوریتمهای استخدام ممکن است بهطور غیرمنصفانه متقاضیان از دانشگاههای کمتر معتبر یا مناطق محروم را کنار بگذارند، زیرا دادههای تاریخی به نفع گروههای ممتاز شهری تنظیم شدهاند. طراحی پلتفرمها نیز توسط نخبگان فنآوری عمدتاً مرد و وابسته به شرکتهای بزرگ مانند علیبابا و تنسنت انجام میشود که نیازهای اقلیتهای قومی (مانند اویغورها) یا گروههای کمدرآمد را نادیده میگیرند. مدلهای تجاری مبتنی بر نظارت، مانند جمعآوری دادههای گسترده در اپلیکیشنهایی مثل ویچت، دسترسی به اطلاعات را برای گروههای حاشیهای محدود و کنترل دولتی را تقویت میکند، که به نابرابریهای اطلاعاتی و اجتماعی دامن میزند.
در هند، الگوریتمهای استخدام و وامدهی دیجیتال نمونههایی از بازتولید سوگیریهای تاریخی هستند. برای مثال، الگوریتمهای استخدام ممکن است علیه کاندیداهای جوامع حاشیهای (مانند دالیتها[۱] یا اقلیتهای مذهبی) تبعیض قائل شوند، زیرا دادههای آموزشی منعکسکننده الگوهای تبعیضآمیز گذشته هستند. طراحی پلتفرمها توسط گروههای نخبه شهری، که اغلب از کاستهای بالا و با تحصیلات غربی هستند، نیازهای روستاییان یا گروههای کمسواد را نادیده میگیرد. مدلهای تجاری پلتفرمهایی مانند اپلیکیشنهای فینتک (مانند Paytm) که بر اساس دادههای رفتاری کاربران عمل میکنند، به دلیل دسترسی نابرابر به اینترنت و گوشیهای هوشمند، گروههای کمدرآمد و زنان را در حاشیه نگه میدارند و نابرابریهای اقتصادی را تشدید میکنند.
در ایران، به دلیل محدودیتهای اینترنتی و فیلترینگ گسترده، الگوریتمهای پلتفرمهای داخلی (مانند اپلیکیشنهای بومی یا شبکههای اجتماعی مجاز) اغلب تحت نظارت دولتی طراحی میشوند و دادههای محدودی در دسترس دارند که سوگیریهای فرهنگی و سیاسی را بازتولید میکنند. برای مثال، الگوریتمهای توصیه محتوا ممکن است محتوای همسو با ایدئولوژی رسمی را ترویج کنند و دیدگاههای اقلیتهای قومی یا مذهبی را سرکوب کنند. طراحی این پلتفرمها معمولاً توسط گروههای همگن نزدیک به نهادهای حکومتی انجام میشود که تنوع اجتماعی را بازتاب نمیدهند. همچنین، مدلهای تجاری مبتنی بر نظارت در پلتفرمهای داخلی، به دلیل کنترل دولتی، دسترسی به اطلاعات را برای گروههای مخالف یا حاشیهای محدود میکند و نابرابریهای اطلاعاتی را تشدید میکند. بااینحال، اطلاعات مستند در مورد الگوریتمهای خاص در ایران به دلیل محدودیتهای دسترسی به دادهها کمتر است.
در ترکیه الگوریتمهای پلتفرمهای رسانههای اجتماعی و تبلیغات آنلاین اغلب سوگیریهای فرهنگی و سیاسی را تقویت میکنند. برای مثال، الگوریتمهای توصیه محتوا در پلتفرمهایی مانند یوتیوب یا توییتر ممکن است محتوای مرتبط با گروههای اکثریت (ترکهای سنی) را ترجیح دهند و محتوای اقلیتهای قومی (مانند کردها) یا گروههای سیاسی مخالف را کمرنگ کنند، که این امر به دلیل دادههای آموزشی متأثر از فضای سیاسی قطبیشده است. طراحی پلتفرمها توسط تیمهای فنآوری عمدتاً متشکل از مردان شهری و همسو با منافع تجاری یا سیاسی، نیازهای گروههای حاشیهای مانند زنان روستایی یا اقلیتهای مذهبی (مانند علویها) را نادیده میگیرد. مدلهای تجاری مبتنی بر شخصیسازی و تبلیغات نیز، به دلیل دسترسی نابرابر به اینترنت در مناطق شرقی و روستایی، شکاف دیجیتال را تشدید میکنند و فرصتهای اقتصادی و اطلاعاتی را برای گروههای محروم محدود میکنند.
راههای کاهش تبعیض
برای کاهش تبعیضهای الگوریتمی، کارشناسان توسعه چارچوبهای قانونی شفاف و استانداردهای اخلاقی چندبعدی را پیشنهاد میکنند. برخی پژوهشگران بر لزوم ایجاد هیئتهای نظارتی مستقل متشکل از جامعهشناسان، حقوقدانان و متخصصان فنآوری تأکید دارند تا سوگیریهای الگوریتمی را در مراحل طراحی و اجرا بررسی کنند. همچنین، استفاده از دادههای متنوع و بازنماینده از گروههای مختلف اجتماعی (مانند اقلیتهای نژادی، جنسیتی و اقتصادی) برای آموزش مدلهای هوش مصنوعی ضروری است تا از تقویت نابرابریهای ساختاری جلوگیری شود. در کشورهایی مانند آلمان و اتحادیه اروپا، قوانینی مانند AI Act [۲] برای الزام شرکتها به شفافیت در عملکرد الگوریتمها و پاسخگویی در قبال تبعیضهای احتمالی تصویب شده است. از سوی دیگر، تقویت مشارکت عمومی و آموزش سواد دیجیتال به عنوان راهکارهای مکمل مطرح میشوند. پژوهشها نشان میدهند که درگیر کردن جوامع محلی و گروههای آسیبپذیر در فرآیند طراحی فنآوری میتواند به شناسایی سوگیریهای پنهان کمک کند. به عنوان نمونه، در نیوزیلند، پروژههایی مانند «فراخوان کرایست چرچ» [۳] با همکاری کاربران اینترنت به مقابله با محتوای خشونتآمیز و تبعیضآمیز پرداخته است. این فراخوان، که پس از حملات ۲۰۱۹ کرایستچرچ راهاندازی شد، با تقویت پروتکلهای پاسخ به بحران، مانند حذف سریع محتوای زنده در حوادثی چون تیراندازی هاله، و توسعه ابزارهای الگوریتمی برای شناسایی محتوای مضر، گامهایی مؤثر برداشته است. شبکهای با ۱۲۰ عضو، شامل شرکتهایی مانند فیسبوک و مایکروسافت، قوانین سختگیرانهتری برای پخش زنده و شفافیت الگوریتمی اعمال کردهاند. همچنین، بازسازی مجمع جهانی اینترنت برای مقابله با تروریسم (GIFCT) به شرکتهای کوچکتر امکان دسترسی به پایگاههای داده مشترک داده و کارگاههای آموزشی برای آنها برگزار کرده است.
بااینحال، اثربخشی فراخوان با چالشهایی مواجه است. فقدان آمار شفاف و جامع درباره محتوای حذفشده، ارزیابی دقیق را دشوار میکند. تعهدات غیرالزامآور فراخوان باعث شده برخی شرکتها همکاری کامل نداشته باشند، و تمرکز اصلی بر محتوای تروریستی، محتوای تبعیضآمیز غیرخشونتآمیز (مانند سخنان نفرتپراکنانه نژادی) را کمتر پوشش داده است. در کشورهایی مانند ایران، ترکیه و چین، محدودیتهای سیاسی و سانسور، اجرای تعهدات را پیچیده میکند. برای تأثیرگذاری بیشتر، نیاز به گزارشدهی منظم، معیارهای قابلاندازهگیری، و توجه به سوگیریهای الگوریتمی و تبعیضهای ساختاری است که همچنان در پلتفرمهای دیجیتال ریشه دارند.
پانویس:
[۱] دالیتها گروهی از مردم در شبهقاره هند هستند که در نظام طبقاتی هندوئیسم بهعنوان «نجس» یا «غیرقابل لمس» شناخته میشوند و خارج از چهار کاست اصلی قرار دارند. آنها که حدود ۱۷ درصد جمعیت هند (حدود ۱۷۰ میلیون نفر) را تشکیل میدهند، بهطور تاریخی با تبعیض شدید، محرومیت اجتماعی و اقتصادی، و خشونت مواجه بودهاند. ۱۷
[۲] قانون AI Act اتحادیه اروپا، اولین چارچوب جامع قانونی برای تنظیم هوش مصنوعی است که از اوت ۲۰۲۴ اجرایی شد. این قانون سیستمهای هوش مصنوعی را بر اساس ریسک (ممنوع، پرریسک، کمریسک) طبقهبندی کرده و الزامات شفافیت، ایمنی و نظارت انسانی را برای کاهش تبعیض و حفاظت از حقوق اساسی تعیین میکند.
[۳] فراخوان کرایستچرچ (Christchurch Call to Action) ابتکاری جهانی است که در ۱۵ مه ۲۰۱۹، دو ماه پس از حملات تروریستی مساجد کرایستچرچ در نیوزیلند، توسط جاسیندا آردرن، نخستوزیر وقت نیوزیلند، و امانوئل مکرون، رئیسجمهور فرانسه، در پاریس راهاندازی شد. این فراخوان با هدف حذف محتوای تروریستی و افراطگرایانه خشونتآمیز از فضای آنلاین، از طریق همکاری دولتها، شرکتهای فنآوری و جامعه مدنی شکل گرفت.
نظرها
نظری وجود ندارد.