ارتباط ناشناخته. ارتباط بدون سانسور. ارتباط برقرار نمی‌شود. سایت اصلی احتمالاً زیر سانسور است. ارتباط با سایت (های) موازی برقرار شد. ارتباط برقرار نمی‌شود. ارتباط اینترنت خود را امتحان کنید. احتمال دارد اینترنت به طور سراسری قطع شده باشد. ادامه مطلب

 سانسور دیجیتال: بازتاب ناکارآمدی و نابرابری در شبکه‌های اجتماعی

سانسور دیجیتال در ایران، فراتر از محدودیت فنی، ابزاری برای تقویت نابرابری‌های اجتماعی است. این مقاله با بررسی انفجار بندر شهید رجایی در ۶ اردیبهشت ۱۴۰۴ و واکنش‌های شبکه‌های اجتماعی، نشان می‌دهد که الگوریتم‌های سانسور چگونه با سرکوب صدای گروه‌های حاشیه‌ای، شکاف‌های قدرت را تثبیت می‌کنند. با بهره‌گیری از چارچوب «عدالت الگوریتمی»، این متن تبعیض دیجیتال را با محرومیت آموزشی مقایسه کرده و بر ضرورت طراحی سیستم‌های عادلانه‌تر تأکید می‌کند.

آنچه که در بخش پیشین گفته شد:

اِلی پارایزر استدلال می‌کند که برنامه‌نویسی، ریشه در انگیزه‌ای خداگونه برای خلق جهان‌های دیجیتال با قوانین دلخواه دارد، اما این جهان‌ها با ورود دیگران به چالش‌های سیاسی و اجتماعی برخورد می‌کنند. او برنامه‌نویسان را به رابرت موزس تشبیه می‌کند که با طراحی‌های خود، مانند پل‌های کوتاه، تبعیض را نهادینه کرد. الگوریتم‌ها به‌عنوان «قانون» دیجیتال، رفتار و دسترسی را شکل می‌دهند و پیامدهای سیاسی عمیقی، از سانسور محتوا تا قطبی‌سازی اجتماعی، دارند. پارایزر از غول‌های فن‌آوری مانند گوگل و فیسبوک انتقاد می‌کند که با ادعای خنثی بودن، از مسئولیت اخلاقی طراحی‌هایشان شانه خالی می‌کنند. او هشدار می‌دهد که این کدها، بازتاب ارزش‌های سازندگانشان هستند و بدون نظارت دموکراتیک، می‌توانند حریم خصوصی، دموکراسی و عدالت اجتماعی را تهدید کنند، و بر ضرورت پاسخگویی برنامه‌نویسان تأکید می‌کند.

اکنون ادامه این بحث را پی می‌گیریم:

در ظهر روز شنبه ۶ اردیبهشت ۱۴۰۴ (۲۶ آوریل ۲۰۲۵) انفجار بزرگی بندر رجایی را لرزاند و یکی از بزرگ‌ترین فجایع صنعتی و بندری تاریخ ایران را رقم زد. بر اثر این حادثه، دست‌کم ۷۰ نفر کشته، بیش از ۱,۲۰۰ نفر زخمی و چند نفر مفقود شدند. آمار مصدومان از منابع مختلف ۲۸۱ تا بیش از ۱,۰۰۰ نفر ذکر شده است، و خسارات گسترده‌ای به زیرساخت‌های بندری و ساختمان‌ها در شعاع چند کیلومتری وارد شد.

بازتاب انفجار بندر شهید رجایی در شبکه‌های اجتماعی، نمایانگر موجی از اندوه، خشم و سرخوردگی شهروندان ایرانی از ناکارآمدی حاکمیت در مدیریت بحران بود، اما نسبت دادن این بیزاری به‌طور ساده به شبکه‌های اجتماعی، تصویری ناقص ارائه می‌دهد. الگوریتم‌های شبکه‌های اجتماعی که برای حداکثر تعامل طراحی شده‌اند، با تقویت محتوای احساسی و قطبی‌کننده، می‌توانند احساسات عمومی مانند خشم یا ناامیدی را تشدید کنند. در مورد انفجار بندر شهید رجایی در ۶ اردیبهشت ۱۴۰۴، پست‌های ایکس نشان‌دهنده انتقادات تند از بی‌عملی و پنهان‌کاری حکومت، ضعف مدیریت ایمنی، و تأخیر در اطلاع‌رسانی شفاف هستند. برخی کاربران این حادثه را نشانه‌ای از «ناکارآمدی و حکمرانی بد» دانسته‌ و برخی نیز به عدم شفافیت در اطلاع‌رسانی رسمی اشاره کرده‌ بودند. این واکنش‌ها بازتابی از نارضایتی واقعی مردم است که ریشه در تجربه‌های ملموس، مانند خسارات جانی و کمبود تجهیزات امدادی دارد. با این حال، نمی‌توان این بیزاری را صرفاً محصول شبکه‌های اجتماعی دانست.

شبکه‌های اجتماعی مانند ایکس بیشتر نقش آیینه‌ای دارند که احساسات و نارضایتی‌های موجود در جامعه را بازتاب می‌دهند و گاهی با الگوریتم‌هایشان آن‌ها را تقویت می‌کنند. نارضایتی از حاکمیت در ایران پیش از این حادثه نیز، به دلیل مشکلات اقتصادی، محدودیت‌های اجتماعی، و سرکوب اعتراضات، وجود داشته است. انفجار بندر رجایی به‌عنوان یک فاجعه قابل‌پیشگیری که به دلیل قصور در رعایت اصول ایمنی و احتمالاً «خلاف‌اظهاری» در دپوی مواد شیمیایی رخ داد این نارضایتی را شعله‌ور کرد. انتشار تصاویر و ویدئوهای شهروندی از خودروهای تخریب‌شده، صف‌های اهدای خون، و خانواده‌های در جستجوی مفقودین، احساس همدلی و خشم جمعی را تقویت کرد، اما این واکنش‌ها در واقعیت‌های عینی بحران ریشه داشتند، نه صرفاً تحریک الگوریتمی. بنابراین، گرچه الگوریتم‌های ایکس با اولویت‌بندی محتوای احساسی به گسترش سریع این احساسات کمک کردند، اما پاسخ کند و غیرشفاف حاکمیت به فاجعه، همراه با بی‌اعتمادی پیشین مردم، روایت ناکارآمدی را در ایکس تقویت کرد، تا بدان حد که شهروندان خود به تولیدکنندگان محتوا و مفسران رویدادها تبدیل شدند.

اگرچه الگوریتم‌ها با کاهش تنوع دیدگاه‌ها و تمرکز بر محتوای قطبی‌کننده، به این روایت غالب دامن زدند، اما حتی پاسخ سریع و شفاف حکومتی نیز به دلیل شکاف عمیق اعتماد، احتمالاً با تردید مواجه می‌شد. در عصر دیجیتال، حکومت‌ها نه‌تنها با واقعیت‌های عینی، بلکه با بازتاب تقویت‌شده آن‌ها در فضای مجازی مواجه‌اند، که نشان‌دهنده نیاز به مدیریت بحران مؤثرتر و تعامل فعال‌تر با روایت‌های مردمی است.

سانسور به‌عنوان ابزاری برای تبعیض اجتماعی

برگردیم به مدخل بحث: اِلی پارایزر بر آن است که برنامه‌نویسان و شرکت‌های فن‌آوری، حتی اگر نیت سیاسی نداشته باشند، با طراحی‌هایی مواجه‌اند که ممکن است تبعیض‌آمیز یا غیرمنصفانه عمل کنند، مانند سوگیری‌های الگوریتم‌های تشخیص چهره. نبود نهادهای نظارتی مؤثر در فضای سایبری به این شرکت‌ها اجازه می‌دهد با حداقل محدودیت عمل کنند، در حالی که الگوریتم‌هایشان به معماری‌های رفتاری تبدیل شده‌اند که اعتیاد به شبکه‌های اجتماعی یا تغییر الگوهای مصرف اخبار را ترویج می‌کنند. این موضوع اخلاق فن‌آوری را به چالش می‌کشد: چگونه می‌توان طراحی الگوریتم‌ها را به سمت عدالت و شمول هدایت کرد؟ پرسش کلیدی این است که نظارت بر این «قوانین دیجیتال» باید توسط چه کسی انجام شود؛ دولت‌ها، کاربران، یا نهادهای مستقل؟ پاسخ به این پرسش نیازمند بازنگری در نقش برنامه‌نویسان به‌عنوان معماران دنیای دیجیتال و تعهد آنها به پاسخگویی در برابر تأثیرات اجتماعی کارهایشان است.

برای هدایت طراحی الگوریتم‌ها به سمت عدالت و شمول، باید رویکردی چندسطحی اتخاذ کرد: اول، با اجرای آزمون‌های سوگیری (bias audits) و استفاده از دسته‌های داده‌های متنوع، می‌توان الگوریتم‌ها را از نظر تبعیض‌های ناخواسته بررسی و اصلاح کرد. دوم، ایجاد چارچوب‌های شفافیت (Explainable AI) به کاربران و ناظران اجازه می‌دهد تا منطق تصمیم‌گیری الگوریتم‌ها را درک کنند. سوم، تشکیل هیئت‌های اخلاق فن‌آوری متشکل از جامعه‌شناسان، حقوق‌دانان و نمایندگان گروه‌های به‌حاشیه‌رفته می‌تواند ارزش‌های انسانی را در طراحی لحاظ کند. چهارم، مقررات‌گذاری دولتی با تعیین استانداردهای اجباری برای انصاف الگوریتمی (مانند قانون EU AI Act) شرکت‌ها را مسئول نگه می‌دارد. در نهایت، طراحی مکانیسم‌های بازخورد مردمی به الگوریتم‌ها اجازه می‌دهد تا در طول زمان با نیازهای متنوع جامعه سازگار شوند. این ترکیب از فن‌آوری، نظارت و مشارکت اجتماعی می‌تواند فاصله میان کارایی فنی و عدالت اجتماعی را کاهش دهد.

سنجش عدالت و شمول الگوریتم‌ها عمدتاً بر نظریه‌های انتقادی فن‌آوری(مانند آثار لنگدون وینر)، جامعه‌شناسی علم و فن‌آوری (STS)، و چارچوب‌های عدالت توزیعی (مثل کار نانسی فریزر[۱]) استوار است. این رویکردها با تحلیل قدرت، سوگیری‌های ساختاری، و تأثیر الگوریتم‌ها بر نابرابری‌های اجتماعی، معیارهایی مانند توزیع عادلانه‌ی منابع دیجیتال، بازتولید یا تضعیف تبعیض‌های موجود، و حق مشارکت گروه‌های حاشیه‌نشین در طراحی فن‌آوری را پیشنهاد می‌کنند. برای نمونه، چارچوب «عدالت الگوریتمی» (Algorithmic Justice) با ترکیب روش‌های کیفی (مثل مصاحبه با جوامع آسیب‌پذیر) و کمّی (مانند سنجش اختلاف دقت الگوریتم‌ها بین گروه‌های نژادی یا جنسیتی)، ابزاری جامعه‌شناختی برای محک زدن انصاف فراهم می‌کند.[۲] این نگاه تأکید می‌کند که عدالت در الگوریتم‌ها صرفاً یک مسئله‌ی فنی نیست، بلکه بازتابی از روابط قدرت در جامعه است.

چارچوب «عدالت الگوریتمی» که با ترکیب روش‌های کیفی (مانند مصاحبه با جوامع حاشیه‌نشین) و کمّی (مانند ارزیابی سوگیری‌های الگوریتمی در دقت برای گروه‌های مختلف) به بررسی انصاف در فن‌آوری می‌پردازد، می‌تواند به تحلیل سانسور در ایران به‌عنوان ابزاری برای نهادینه کردن تبعیض‌های اجتماعی کمک کند. سانسور در ایران، به‌ویژه در فضای دیجیتال، نه‌تنها یک مسئله فنی (مانند فیلترینگ یا محدودیت دسترسی به پلتفرم‌ها) بلکه بازتابی از روابط قدرت در جامعه است که نابرابری‌های موجود را تقویت می‌کند. این پدیده را می‌توان با تبعیض در دسترسی به آموزش مقایسه کرد، زیرا هر دو به‌طور ساختاری گروه‌های خاصی را از منابع حیاتی (اطلاعات یا دانش) محروم می‌کنند و بدین‌ترتیب شکاف‌های اجتماعی، اقتصادی و سیاسی را تعمیق می‌بخشند.

در ایران، سانسور دیجیتال، از جمله فیلترینگ گسترده شبکه‌های اجتماعی مانند ایکس، اینستاگرام، و واتس‌اپ در دوره‌های اعتراضی به‌طور نامتناسبی بر گروه‌های حاشیه‌ای تأثیر می‌گذارد. برای مثال، فعالان مدنی، زنان، اقلیت‌های قومی، و اقشار کم‌درآمد که به پلتفرم‌های دیجیتال برای اطلاع‌رسانی، سازمان‌دهی، یا دسترسی به اخبار غیررسمی وابسته‌اند، با محدودیت‌های شدید مواجه می‌شوند. این محدودیت‌ها مانع از شنیده شدن صدای این گروه‌ها شده و روایت‌های رسمی حکومتی را تقویت می‌کند، مشابه محرومیت از آموزش که فرصت‌های رشد و مشارکت اجتماعی را از گروه‌های محروم سلب می‌کند. چارچوب عدالت الگوریتمی می‌تواند با تحلیل داده‌های دسترسی (مانند مقایسه نرخ استفاده از VPN در مناطق شهری و روستایی) یا مصاحبه با کاربران محروم، نشان دهد که چگونه سانسور به‌عنوان یک الگوریتم اجتماعی، نابرابری را نهادینه می‌کند.

 روابط قدرت و سانسور الگوریتمی

الگوریتم‌های سانسور در ایران، مانند سیستم‌های فیلترینگ یا نظارت بر محتوا، توسط نهادهای حکومتی طراحی شده‌اند تا گفتمان‌های خاص (مانند انتقاد از سیاست‌ها یا بحث درباره حقوق زنان) را سرکوب کنند. این الگوریتم‌ها، مشابه سوگیری‌های الگوریتمی در تشخیص چهره که گروه‌های نژادی خاصی را نادیده می‌گیرند، به‌طور انتخابی گروه‌های مخالف یا حاشیه‌ای را هدف قرار می‌دهند. برای مثال، گزارش‌های کاربران در ایکس نشان می‌دهد که پست‌های مرتبط با اعتراضات یا نقض حقوق بشر اغلب به‌سرعت حذف یا محدود می‌شوند، در حالی که محتوای همسو با دولت کمتر تحت نظارت قرار می‌گیرد. این انتخابگری، که ریشه در روابط قدرت دارد، تبعیض را در دسترسی به فضای عمومی دیجیتال تقویت می‌کند. چارچوب برلوو با تأکید بر روش‌های کیفی می‌تواند از طریق مصاحبه با فعالان سانسورشده، تجربه زیسته این تبعیض را مستند کند و با روش‌های کمّی، مانند سنجش میزان محدودیت محتوا برای گروه‌های مختلف، شواهد عینی ارائه دهد.

استفاده از چارچوب عدالت الگوریتمی در ایران می‌تواند به شناسایی سوگیری‌های سانسور و اثرات آن بر گروه‌های آسیب‌پذیر کمک کند. برای مثال، بررسی کیفی می‌تواند نشان دهد که چگونه زنان فعال در حوزه حقوق بشر به دلیل سانسور دیجیتال از شبکه‌سازی محروم می‌شوند، در حالی که تحلیل کمّی می‌تواند تفاوت‌های دسترسی به اطلاعات را بین مناطق مرفه و محروم مقایسه کند. این رویکرد نشان می‌دهد که سانسور، مانند محرومیت از آموزش، نه‌تنها یک مانع فنی بلکه یک ابزار سیاسی برای حفظ نابرابری است. با این حال، چالش‌هایی مانند محدودیت دسترسی به داده‌های حکومتی و فیلترینگ گسترده، اجرای این چارچوب را دشوار می‌کند. برای پیشبرد این تحلیل، همکاری با سازمان‌های بین‌المللی حقوق دیجیتال یا استفاده از داده‌های کاربران ایرانی در پلتفرم‌های خارجی می‌تواند مفید باشد.

در یک نگاه کلی سانسور در ایران، مشابه تبعیض در آموزش، به‌عنوان ابزاری برای نهادینه کردن نابرابری‌های اجتماعی عمل می‌کند و چارچوب عدالت الگوریتمی می‌تواند این مکانیزم را از منظر فنی و اجتماعی آشکار کند. این چارچوب با نشان دادن اینکه سانسور چگونه صدای گروه‌های حاشیه‌ای را خاموش و شکاف‌های قدرت را تثبیت می‌کند، بر نیاز به طراحی سیستم‌های دیجیتال عادلانه‌تر تأکید دارد. برای عملیاتی کردن این چارچوب در ایران، نیاز به تحقیقات میدانی و دسترسی به داده‌های کاربران است تا اثرات تبعیض‌آمیز سانسور به‌صورت نظام‌مند مستند شود.

پانویس:

[۱] Fraser, Nancy. Scales of Justice: Reimagining Political Space in a Globalizing World. New York: Columbia University Press, 2008.

[۲] درباره عدالت الگوریتمی، می‌توانید به منابع زیر مراجعه کنید:

O'Neil, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown Publishers, 2016.

Noble, Safiya Umoja. Algorithms of Oppression: How Search Engines Reinforce Racism. New York: NYU Press, 2018.

بیشتر بخوانید:

این مطلب را پسندیدید؟ کمک مالی شما به ما این امکان را خواهد داد که از این نوع مطالب بیشتر منتشر کنیم.

آیا مایل هستید ما را در تحقیق و نوشتن تعداد بیشتری از این‌گونه مطالب یاری کنید؟

.در حال حاضر امکان دریافت کمک مخاطبان ساکن ایران وجود ندارد

توضیح بیشتر در مورد اینکه چطور از ما حمایت کنید

نظر بدهید

در پرکردن فرم خطایی صورت گرفته

نظرها

نظری وجود ندارد.