ارتباط ناشناخته. ارتباط بدون سانسور. ارتباط برقرار نمی‌شود. سایت اصلی احتمالاً زیر سانسور است. ارتباط با سایت (های) موازی برقرار شد. ارتباط برقرار نمی‌شود. ارتباط اینترنت خود را امتحان کنید. احتمال دارد اینترنت به طور سراسری قطع شده باشد. ادامه مطلب

فن‌آوری و نابرابری: چگونه الگوریتم‌ها و طراحی دیجیتال شکاف‌های اجتماعی را تعمیق می‌کنند

این متن به بررسی نقش فن‌آوری در بازتولید و تشدید نابرابری‌های اجتماعی در کشورهایی مانند چین، هند، ایران و ترکیه می‌پردازد، با تمرکز بر سه عامل اصلی: سوگیری‌های الگوریتمی، طراحی همگن پلتفرم‌ها و مدل‌های تجاری مبتنی بر نظارت. برای کاهش این تبعیض‌ها، راهکارهایی مانند چارچوب‌های قانونی شفاف، استفاده از داده‌های متنوع، مشارکت عمومی و آموزش سواد دیجیتال پیشنهاد شده است.

آنچه که پیش از این گفته شد:

در مقاله پیشین گفتیم که الی پارایز انگیزه‌های کارآفرینان فن‌آوری، از جمله مارک زاکربرگ و پیتر تیل، و تناقضات بین ادعاهای آن‌ها و تأثیرات واقعی‌شان بر جامعه را بررسی می‌کند. او با تحلیل مصاحبه زاکربرگ در سال ۲۰۱۰، جاه‌طلبی و تمایل به امپراتوری‌سازی را در کنار لذت خلاقیت، محرک‌های اصلی موفقیت استارتاپ‌هایی چون فیس‌بوک می‌داند، اما هشدار می‌دهد که تمرکز قدرت در دست گروهی همگن و غیرمسئول می‌تواند به تصمیم‌گیری‌های خطرناک منجر شود. پارایزر دیدگاه‌های غیرمتعارف تیل، مانند رد دموکراسی و ایده‌های عجیب چون «دریاسازی»، را نمونه‌ای از خطر نفوذ نخبگان فن‌آوری می‌بیند. در مقابل، او از کارآفرینانی مانند اسکات هیفرمن، بنیان‌گذار MeetUp.com، سخن می‌گوید که فن‌آوری را در خدمت پیوندهای اجتماعی به کار می‌گیرند، اما تأکید می‌کند که بسیاری از مهندسان فن‌آوری به پروژه‌های کم‌اهمیت اولویت می‌دهند. با استناد به قانون کرنزبرگ و نقدهایی از سافیا نوبل و دیگران، پارایزر نشان می‌دهد که فن‌آوری، به دلیل بازتولید سوگیری‌ها و نابرابری‌ها از طریق الگوریتم‌ها، طراحی نخبه‌گرا و مدل‌های تجاری نظارتی، نیازمند بازنگری در طراحی و مسئولیت‌پذیری اجتماعی است تا به جای خدمت به بازار، به حل مشکلات واقعی جامعه کمک کند.

اکنون ادامه این بحث را پی می‌گیریم:

تأثیر عمیق فن‌آوری در بازتولید و تشدید نابرابری‌های اجتماعی در کشورهایی مانند چین، هند، ایران و ترکیه نمودهای مشخصی دارد که از سه مسیر اصلی ذکرشده (سوگیری‌های الگوریتمی، طراحی همگن پلتفرم‌ها، و مدل‌های تجاری مبتنی بر نظارت) ناشی می‌شود.

در چین، الگوریتم‌های هوش مصنوعی در سیستم‌هایی مانند امتیازدهی اعتباری اجتماعی (Social Credit System) و پلتفرم‌های استخدام، سوگیری‌های ساختاری را بازتولید می‌کنند. برای مثال، الگوریتم‌های استخدام ممکن است به‌طور غیرمنصفانه متقاضیان از دانشگاه‌های کمتر معتبر یا مناطق محروم را کنار بگذارند، زیرا داده‌های تاریخی به نفع گروه‌های ممتاز شهری تنظیم شده‌اند. طراحی پلتفرم‌ها نیز توسط نخبگان فن‌آوری عمدتاً مرد و وابسته به شرکت‌های بزرگ مانند علی‌بابا و تنسنت انجام می‌شود که نیازهای اقلیت‌های قومی (مانند اویغورها) یا گروه‌های کم‌درآمد را نادیده می‌گیرند. مدل‌های تجاری مبتنی بر نظارت، مانند جمع‌آوری داده‌های گسترده در اپلیکیشن‌هایی مثل وی‌چت، دسترسی به اطلاعات را برای گروه‌های حاشیه‌ای محدود و کنترل دولتی را تقویت می‌کند، که به نابرابری‌های اطلاعاتی و اجتماعی دامن می‌زند.

در هند، الگوریتم‌های استخدام و وام‌دهی دیجیتال نمونه‌هایی از بازتولید سوگیری‌های تاریخی هستند. برای مثال، الگوریتم‌های استخدام ممکن است علیه کاندیداهای جوامع حاشیه‌ای (مانند دالیت‌ها[۱] یا اقلیت‌های مذهبی) تبعیض قائل شوند، زیرا داده‌های آموزشی منعکس‌کننده الگوهای تبعیض‌آمیز گذشته هستند. طراحی پلتفرم‌ها توسط گروه‌های نخبه شهری، که اغلب از کاست‌های بالا و با تحصیلات غربی هستند، نیازهای روستاییان یا گروه‌های کم‌سواد را نادیده می‌گیرد. مدل‌های تجاری پلتفرم‌هایی مانند اپلیکیشن‌های فین‌تک (مانند Paytm) که بر اساس داده‌های رفتاری کاربران عمل می‌کنند، به دلیل دسترسی نابرابر به اینترنت و گوشی‌های هوشمند، گروه‌های کم‌درآمد و زنان را در حاشیه نگه می‌دارند و نابرابری‌های اقتصادی را تشدید می‌کنند.

در ایران، به دلیل محدودیت‌های اینترنتی و فیلترینگ گسترده، الگوریتم‌های پلتفرم‌های داخلی (مانند اپلیکیشن‌های بومی یا شبکه‌های اجتماعی مجاز) اغلب تحت نظارت دولتی طراحی می‌شوند و داده‌های محدودی در دسترس دارند که سوگیری‌های فرهنگی و سیاسی را بازتولید می‌کنند. برای مثال، الگوریتم‌های توصیه محتوا ممکن است محتوای همسو با ایدئولوژی رسمی را ترویج کنند و دیدگاه‌های اقلیت‌های قومی یا مذهبی را سرکوب کنند. طراحی این پلتفرم‌ها معمولاً توسط گروه‌های همگن نزدیک به نهادهای حکومتی انجام می‌شود که تنوع اجتماعی را بازتاب نمی‌دهند. همچنین، مدل‌های تجاری مبتنی بر نظارت در پلتفرم‌های داخلی، به دلیل کنترل دولتی، دسترسی به اطلاعات را برای گروه‌های مخالف یا حاشیه‌ای محدود می‌کند و نابرابری‌های اطلاعاتی را تشدید می‌کند. بااین‌حال، اطلاعات مستند در مورد الگوریتم‌های خاص در ایران به دلیل محدودیت‌های دسترسی به داده‌ها کمتر است.

در ترکیه الگوریتم‌های پلتفرم‌های رسانه‌های اجتماعی و تبلیغات آنلاین اغلب سوگیری‌های فرهنگی و سیاسی را تقویت می‌کنند. برای مثال، الگوریتم‌های توصیه محتوا در پلتفرم‌هایی مانند یوتیوب یا توییتر ممکن است محتوای مرتبط با گروه‌های اکثریت (ترک‌های سنی) را ترجیح دهند و محتوای اقلیت‌های قومی (مانند کردها) یا گروه‌های سیاسی مخالف را کم‌رنگ کنند، که این امر به دلیل داده‌های آموزشی متأثر از فضای سیاسی قطبی‌شده است. طراحی پلتفرم‌ها توسط تیم‌های فن‌آوری عمدتاً متشکل از مردان شهری و همسو با منافع تجاری یا سیاسی، نیازهای گروه‌های حاشیه‌ای مانند زنان روستایی یا اقلیت‌های مذهبی (مانند علوی‌ها) را نادیده می‌گیرد. مدل‌های تجاری مبتنی بر شخصی‌سازی و تبلیغات نیز، به دلیل دسترسی نابرابر به اینترنت در مناطق شرقی و روستایی، شکاف دیجیتال را تشدید می‌کنند و فرصت‌های اقتصادی و اطلاعاتی را برای گروه‌های محروم محدود می‌کنند.

راه‌های کاهش تبعیض

برای کاهش تبعیض‌های الگوریتمی، کارشناسان توسعه چارچوب‌های قانونی شفاف و استانداردهای اخلاقی چندبعدی را پیشنهاد می‌کنند. برخی پژوهشگران بر لزوم ایجاد هیئت‌های نظارتی مستقل متشکل از جامعه‌شناسان، حقوق‌دانان و متخصصان فن‌آوری تأکید دارند تا سوگیری‌های الگوریتمی را در مراحل طراحی و اجرا بررسی کنند. همچنین، استفاده از داده‌های متنوع و بازنماینده از گروه‌های مختلف اجتماعی (مانند اقلیت‌های نژادی، جنسیتی و اقتصادی) برای آموزش مدل‌های هوش مصنوعی ضروری است تا از تقویت نابرابری‌های ساختاری جلوگیری شود. در کشورهایی مانند آلمان و اتحادیه اروپا، قوانینی مانند AI Act [۲] برای الزام شرکت‌ها به شفافیت در عملکرد الگوریتم‌ها و پاسخگویی در قبال تبعیض‌های احتمالی تصویب شده است. از سوی دیگر، تقویت مشارکت عمومی و آموزش سواد دیجیتال به عنوان راهکارهای مکمل مطرح می‌شوند. پژوهش‌ها نشان می‌دهند که درگیر کردن جوامع محلی و گروه‌های آسیب‌پذیر در فرآیند طراحی فن‌آوری می‌تواند به شناسایی سوگیری‌های پنهان کمک کند. به عنوان نمونه، در نیوزیلند، پروژه‌هایی مانند «فراخوان کرایست چرچ» [۳] با همکاری کاربران اینترنت به مقابله با محتوای خشونت‌آمیز و تبعیض‌آمیز پرداخته است. این فراخوان، که پس از حملات ۲۰۱۹ کرایست‌چرچ راه‌اندازی شد، با تقویت پروتکل‌های پاسخ به بحران، مانند حذف سریع محتوای زنده در حوادثی چون تیراندازی هاله، و توسعه ابزارهای الگوریتمی برای شناسایی محتوای مضر، گام‌هایی مؤثر برداشته است. شبکه‌ای با ۱۲۰ عضو، شامل شرکت‌هایی مانند فیس‌بوک و مایکروسافت، قوانین سخت‌گیرانه‌تری برای پخش زنده و شفافیت الگوریتمی اعمال کرده‌اند. همچنین، بازسازی مجمع جهانی اینترنت برای مقابله با تروریسم (GIFCT) به شرکت‌های کوچک‌تر امکان دسترسی به پایگاه‌های داده مشترک داده و کارگاه‌های آموزشی برای آن‌ها برگزار کرده است.

بااین‌حال، اثربخشی فراخوان با چالش‌هایی مواجه است. فقدان آمار شفاف و جامع درباره محتوای حذف‌شده، ارزیابی دقیق را دشوار می‌کند. تعهدات غیرالزام‌آور فراخوان باعث شده برخی شرکت‌ها همکاری کامل نداشته باشند، و تمرکز اصلی بر محتوای تروریستی، محتوای تبعیض‌آمیز غیرخشونت‌آمیز (مانند سخنان نفرت‌پراکنانه نژادی) را کمتر پوشش داده است. در کشورهایی مانند ایران، ترکیه و چین، محدودیت‌های سیاسی و سانسور، اجرای تعهدات را پیچیده می‌کند. برای تأثیرگذاری بیشتر، نیاز به گزارش‌دهی منظم، معیارهای قابل‌اندازه‌گیری، و توجه به سوگیری‌های الگوریتمی و تبعیض‌های ساختاری است که همچنان در پلتفرم‌های دیجیتال ریشه دارند.

پانویس:

[۱] دالیت‌ها گروهی از مردم در شبه‌قاره هند هستند که در نظام طبقاتی هندوئیسم به‌عنوان «نجس» یا «غیرقابل لمس» شناخته می‌شوند و خارج از چهار کاست اصلی قرار دارند. آنها که حدود ۱۷ درصد جمعیت هند (حدود ۱۷۰ میلیون نفر) را تشکیل می‌دهند، به‌طور تاریخی با تبعیض شدید، محرومیت اجتماعی و اقتصادی، و خشونت مواجه بوده‌اند. ۱۷

[۲] قانون AI Act اتحادیه اروپا، اولین چارچوب جامع قانونی برای تنظیم هوش مصنوعی است که از اوت ۲۰۲۴ اجرایی شد. این قانون سیستم‌های هوش مصنوعی را بر اساس ریسک (ممنوع، پرریسک، کم‌ریسک) طبقه‌بندی کرده و الزامات شفافیت، ایمنی و نظارت انسانی را برای کاهش تبعیض و حفاظت از حقوق اساسی تعیین می‌کند.

[۳] فراخوان کرایست‌چرچ (Christchurch Call to Action) ابتکاری جهانی است که در ۱۵ مه ۲۰۱۹، دو ماه پس از حملات تروریستی مساجد کرایست‌چرچ در نیوزیلند، توسط جاسیندا آردرن، نخست‌وزیر وقت نیوزیلند، و امانوئل مکرون، رئیس‌جمهور فرانسه، در پاریس راه‌اندازی شد. این فراخوان با هدف حذف محتوای تروریستی و افراط‌گرایانه خشونت‌آمیز از فضای آنلاین، از طریق همکاری دولت‌ها، شرکت‌های فن‌آوری و جامعه مدنی شکل گرفت.

بیشتر بخوانید:

این مطلب را پسندیدید؟ کمک مالی شما به ما این امکان را خواهد داد که از این نوع مطالب بیشتر منتشر کنیم.

آیا مایل هستید ما را در تحقیق و نوشتن تعداد بیشتری از این‌گونه مطالب یاری کنید؟

.در حال حاضر امکان دریافت کمک مخاطبان ساکن ایران وجود ندارد

توضیح بیشتر در مورد اینکه چطور از ما حمایت کنید

نظر بدهید

در پرکردن فرم خطایی صورت گرفته

نظرها

نظری وجود ندارد.