سانسور دیجیتال: بازتاب ناکارآمدی و نابرابری در شبکههای اجتماعی
سانسور دیجیتال در ایران، فراتر از محدودیت فنی، ابزاری برای تقویت نابرابریهای اجتماعی است. این مقاله با بررسی انفجار بندر شهید رجایی در ۶ اردیبهشت ۱۴۰۴ و واکنشهای شبکههای اجتماعی، نشان میدهد که الگوریتمهای سانسور چگونه با سرکوب صدای گروههای حاشیهای، شکافهای قدرت را تثبیت میکنند. با بهرهگیری از چارچوب «عدالت الگوریتمی»، این متن تبعیض دیجیتال را با محرومیت آموزشی مقایسه کرده و بر ضرورت طراحی سیستمهای عادلانهتر تأکید میکند.

حباب فیلتر، با استفاده از تصویری از شاتراستاک
آنچه که در بخش پیشین گفته شد:
اِلی پارایزر استدلال میکند که برنامهنویسی، ریشه در انگیزهای خداگونه برای خلق جهانهای دیجیتال با قوانین دلخواه دارد، اما این جهانها با ورود دیگران به چالشهای سیاسی و اجتماعی برخورد میکنند. او برنامهنویسان را به رابرت موزس تشبیه میکند که با طراحیهای خود، مانند پلهای کوتاه، تبعیض را نهادینه کرد. الگوریتمها بهعنوان «قانون» دیجیتال، رفتار و دسترسی را شکل میدهند و پیامدهای سیاسی عمیقی، از سانسور محتوا تا قطبیسازی اجتماعی، دارند. پارایزر از غولهای فنآوری مانند گوگل و فیسبوک انتقاد میکند که با ادعای خنثی بودن، از مسئولیت اخلاقی طراحیهایشان شانه خالی میکنند. او هشدار میدهد که این کدها، بازتاب ارزشهای سازندگانشان هستند و بدون نظارت دموکراتیک، میتوانند حریم خصوصی، دموکراسی و عدالت اجتماعی را تهدید کنند، و بر ضرورت پاسخگویی برنامهنویسان تأکید میکند.
اکنون ادامه این بحث را پی میگیریم:
در ظهر روز شنبه ۶ اردیبهشت ۱۴۰۴ (۲۶ آوریل ۲۰۲۵) انفجار بزرگی بندر رجایی را لرزاند و یکی از بزرگترین فجایع صنعتی و بندری تاریخ ایران را رقم زد. بر اثر این حادثه، دستکم ۷۰ نفر کشته، بیش از ۱,۲۰۰ نفر زخمی و چند نفر مفقود شدند. آمار مصدومان از منابع مختلف ۲۸۱ تا بیش از ۱,۰۰۰ نفر ذکر شده است، و خسارات گستردهای به زیرساختهای بندری و ساختمانها در شعاع چند کیلومتری وارد شد.
بازتاب انفجار بندر شهید رجایی در شبکههای اجتماعی، نمایانگر موجی از اندوه، خشم و سرخوردگی شهروندان ایرانی از ناکارآمدی حاکمیت در مدیریت بحران بود، اما نسبت دادن این بیزاری بهطور ساده به شبکههای اجتماعی، تصویری ناقص ارائه میدهد. الگوریتمهای شبکههای اجتماعی که برای حداکثر تعامل طراحی شدهاند، با تقویت محتوای احساسی و قطبیکننده، میتوانند احساسات عمومی مانند خشم یا ناامیدی را تشدید کنند. در مورد انفجار بندر شهید رجایی در ۶ اردیبهشت ۱۴۰۴، پستهای ایکس نشاندهنده انتقادات تند از بیعملی و پنهانکاری حکومت، ضعف مدیریت ایمنی، و تأخیر در اطلاعرسانی شفاف هستند. برخی کاربران این حادثه را نشانهای از «ناکارآمدی و حکمرانی بد» دانسته و برخی نیز به عدم شفافیت در اطلاعرسانی رسمی اشاره کرده بودند. این واکنشها بازتابی از نارضایتی واقعی مردم است که ریشه در تجربههای ملموس، مانند خسارات جانی و کمبود تجهیزات امدادی دارد. با این حال، نمیتوان این بیزاری را صرفاً محصول شبکههای اجتماعی دانست.
شبکههای اجتماعی مانند ایکس بیشتر نقش آیینهای دارند که احساسات و نارضایتیهای موجود در جامعه را بازتاب میدهند و گاهی با الگوریتمهایشان آنها را تقویت میکنند. نارضایتی از حاکمیت در ایران پیش از این حادثه نیز، به دلیل مشکلات اقتصادی، محدودیتهای اجتماعی، و سرکوب اعتراضات، وجود داشته است. انفجار بندر رجایی بهعنوان یک فاجعه قابلپیشگیری که به دلیل قصور در رعایت اصول ایمنی و احتمالاً «خلافاظهاری» در دپوی مواد شیمیایی رخ داد این نارضایتی را شعلهور کرد. انتشار تصاویر و ویدئوهای شهروندی از خودروهای تخریبشده، صفهای اهدای خون، و خانوادههای در جستجوی مفقودین، احساس همدلی و خشم جمعی را تقویت کرد، اما این واکنشها در واقعیتهای عینی بحران ریشه داشتند، نه صرفاً تحریک الگوریتمی. بنابراین، گرچه الگوریتمهای ایکس با اولویتبندی محتوای احساسی به گسترش سریع این احساسات کمک کردند، اما پاسخ کند و غیرشفاف حاکمیت به فاجعه، همراه با بیاعتمادی پیشین مردم، روایت ناکارآمدی را در ایکس تقویت کرد، تا بدان حد که شهروندان خود به تولیدکنندگان محتوا و مفسران رویدادها تبدیل شدند.
اگرچه الگوریتمها با کاهش تنوع دیدگاهها و تمرکز بر محتوای قطبیکننده، به این روایت غالب دامن زدند، اما حتی پاسخ سریع و شفاف حکومتی نیز به دلیل شکاف عمیق اعتماد، احتمالاً با تردید مواجه میشد. در عصر دیجیتال، حکومتها نهتنها با واقعیتهای عینی، بلکه با بازتاب تقویتشده آنها در فضای مجازی مواجهاند، که نشاندهنده نیاز به مدیریت بحران مؤثرتر و تعامل فعالتر با روایتهای مردمی است.
سانسور بهعنوان ابزاری برای تبعیض اجتماعی
برگردیم به مدخل بحث: اِلی پارایزر بر آن است که برنامهنویسان و شرکتهای فنآوری، حتی اگر نیت سیاسی نداشته باشند، با طراحیهایی مواجهاند که ممکن است تبعیضآمیز یا غیرمنصفانه عمل کنند، مانند سوگیریهای الگوریتمهای تشخیص چهره. نبود نهادهای نظارتی مؤثر در فضای سایبری به این شرکتها اجازه میدهد با حداقل محدودیت عمل کنند، در حالی که الگوریتمهایشان به معماریهای رفتاری تبدیل شدهاند که اعتیاد به شبکههای اجتماعی یا تغییر الگوهای مصرف اخبار را ترویج میکنند. این موضوع اخلاق فنآوری را به چالش میکشد: چگونه میتوان طراحی الگوریتمها را به سمت عدالت و شمول هدایت کرد؟ پرسش کلیدی این است که نظارت بر این «قوانین دیجیتال» باید توسط چه کسی انجام شود؛ دولتها، کاربران، یا نهادهای مستقل؟ پاسخ به این پرسش نیازمند بازنگری در نقش برنامهنویسان بهعنوان معماران دنیای دیجیتال و تعهد آنها به پاسخگویی در برابر تأثیرات اجتماعی کارهایشان است.
برای هدایت طراحی الگوریتمها به سمت عدالت و شمول، باید رویکردی چندسطحی اتخاذ کرد: اول، با اجرای آزمونهای سوگیری (bias audits) و استفاده از دستههای دادههای متنوع، میتوان الگوریتمها را از نظر تبعیضهای ناخواسته بررسی و اصلاح کرد. دوم، ایجاد چارچوبهای شفافیت (Explainable AI) به کاربران و ناظران اجازه میدهد تا منطق تصمیمگیری الگوریتمها را درک کنند. سوم، تشکیل هیئتهای اخلاق فنآوری متشکل از جامعهشناسان، حقوقدانان و نمایندگان گروههای بهحاشیهرفته میتواند ارزشهای انسانی را در طراحی لحاظ کند. چهارم، مقرراتگذاری دولتی با تعیین استانداردهای اجباری برای انصاف الگوریتمی (مانند قانون EU AI Act) شرکتها را مسئول نگه میدارد. در نهایت، طراحی مکانیسمهای بازخورد مردمی به الگوریتمها اجازه میدهد تا در طول زمان با نیازهای متنوع جامعه سازگار شوند. این ترکیب از فنآوری، نظارت و مشارکت اجتماعی میتواند فاصله میان کارایی فنی و عدالت اجتماعی را کاهش دهد.
سنجش عدالت و شمول الگوریتمها عمدتاً بر نظریههای انتقادی فنآوری(مانند آثار لنگدون وینر)، جامعهشناسی علم و فنآوری (STS)، و چارچوبهای عدالت توزیعی (مثل کار نانسی فریزر[۱]) استوار است. این رویکردها با تحلیل قدرت، سوگیریهای ساختاری، و تأثیر الگوریتمها بر نابرابریهای اجتماعی، معیارهایی مانند توزیع عادلانهی منابع دیجیتال، بازتولید یا تضعیف تبعیضهای موجود، و حق مشارکت گروههای حاشیهنشین در طراحی فنآوری را پیشنهاد میکنند. برای نمونه، چارچوب «عدالت الگوریتمی» (Algorithmic Justice) با ترکیب روشهای کیفی (مثل مصاحبه با جوامع آسیبپذیر) و کمّی (مانند سنجش اختلاف دقت الگوریتمها بین گروههای نژادی یا جنسیتی)، ابزاری جامعهشناختی برای محک زدن انصاف فراهم میکند.[۲] این نگاه تأکید میکند که عدالت در الگوریتمها صرفاً یک مسئلهی فنی نیست، بلکه بازتابی از روابط قدرت در جامعه است.
چارچوب «عدالت الگوریتمی» که با ترکیب روشهای کیفی (مانند مصاحبه با جوامع حاشیهنشین) و کمّی (مانند ارزیابی سوگیریهای الگوریتمی در دقت برای گروههای مختلف) به بررسی انصاف در فنآوری میپردازد، میتواند به تحلیل سانسور در ایران بهعنوان ابزاری برای نهادینه کردن تبعیضهای اجتماعی کمک کند. سانسور در ایران، بهویژه در فضای دیجیتال، نهتنها یک مسئله فنی (مانند فیلترینگ یا محدودیت دسترسی به پلتفرمها) بلکه بازتابی از روابط قدرت در جامعه است که نابرابریهای موجود را تقویت میکند. این پدیده را میتوان با تبعیض در دسترسی به آموزش مقایسه کرد، زیرا هر دو بهطور ساختاری گروههای خاصی را از منابع حیاتی (اطلاعات یا دانش) محروم میکنند و بدینترتیب شکافهای اجتماعی، اقتصادی و سیاسی را تعمیق میبخشند.
در ایران، سانسور دیجیتال، از جمله فیلترینگ گسترده شبکههای اجتماعی مانند ایکس، اینستاگرام، و واتساپ در دورههای اعتراضی بهطور نامتناسبی بر گروههای حاشیهای تأثیر میگذارد. برای مثال، فعالان مدنی، زنان، اقلیتهای قومی، و اقشار کمدرآمد که به پلتفرمهای دیجیتال برای اطلاعرسانی، سازماندهی، یا دسترسی به اخبار غیررسمی وابستهاند، با محدودیتهای شدید مواجه میشوند. این محدودیتها مانع از شنیده شدن صدای این گروهها شده و روایتهای رسمی حکومتی را تقویت میکند، مشابه محرومیت از آموزش که فرصتهای رشد و مشارکت اجتماعی را از گروههای محروم سلب میکند. چارچوب عدالت الگوریتمی میتواند با تحلیل دادههای دسترسی (مانند مقایسه نرخ استفاده از VPN در مناطق شهری و روستایی) یا مصاحبه با کاربران محروم، نشان دهد که چگونه سانسور بهعنوان یک الگوریتم اجتماعی، نابرابری را نهادینه میکند.
روابط قدرت و سانسور الگوریتمی
الگوریتمهای سانسور در ایران، مانند سیستمهای فیلترینگ یا نظارت بر محتوا، توسط نهادهای حکومتی طراحی شدهاند تا گفتمانهای خاص (مانند انتقاد از سیاستها یا بحث درباره حقوق زنان) را سرکوب کنند. این الگوریتمها، مشابه سوگیریهای الگوریتمی در تشخیص چهره که گروههای نژادی خاصی را نادیده میگیرند، بهطور انتخابی گروههای مخالف یا حاشیهای را هدف قرار میدهند. برای مثال، گزارشهای کاربران در ایکس نشان میدهد که پستهای مرتبط با اعتراضات یا نقض حقوق بشر اغلب بهسرعت حذف یا محدود میشوند، در حالی که محتوای همسو با دولت کمتر تحت نظارت قرار میگیرد. این انتخابگری، که ریشه در روابط قدرت دارد، تبعیض را در دسترسی به فضای عمومی دیجیتال تقویت میکند. چارچوب برلوو با تأکید بر روشهای کیفی میتواند از طریق مصاحبه با فعالان سانسورشده، تجربه زیسته این تبعیض را مستند کند و با روشهای کمّی، مانند سنجش میزان محدودیت محتوا برای گروههای مختلف، شواهد عینی ارائه دهد.
استفاده از چارچوب عدالت الگوریتمی در ایران میتواند به شناسایی سوگیریهای سانسور و اثرات آن بر گروههای آسیبپذیر کمک کند. برای مثال، بررسی کیفی میتواند نشان دهد که چگونه زنان فعال در حوزه حقوق بشر به دلیل سانسور دیجیتال از شبکهسازی محروم میشوند، در حالی که تحلیل کمّی میتواند تفاوتهای دسترسی به اطلاعات را بین مناطق مرفه و محروم مقایسه کند. این رویکرد نشان میدهد که سانسور، مانند محرومیت از آموزش، نهتنها یک مانع فنی بلکه یک ابزار سیاسی برای حفظ نابرابری است. با این حال، چالشهایی مانند محدودیت دسترسی به دادههای حکومتی و فیلترینگ گسترده، اجرای این چارچوب را دشوار میکند. برای پیشبرد این تحلیل، همکاری با سازمانهای بینالمللی حقوق دیجیتال یا استفاده از دادههای کاربران ایرانی در پلتفرمهای خارجی میتواند مفید باشد.
در یک نگاه کلی سانسور در ایران، مشابه تبعیض در آموزش، بهعنوان ابزاری برای نهادینه کردن نابرابریهای اجتماعی عمل میکند و چارچوب عدالت الگوریتمی میتواند این مکانیزم را از منظر فنی و اجتماعی آشکار کند. این چارچوب با نشان دادن اینکه سانسور چگونه صدای گروههای حاشیهای را خاموش و شکافهای قدرت را تثبیت میکند، بر نیاز به طراحی سیستمهای دیجیتال عادلانهتر تأکید دارد. برای عملیاتی کردن این چارچوب در ایران، نیاز به تحقیقات میدانی و دسترسی به دادههای کاربران است تا اثرات تبعیضآمیز سانسور بهصورت نظاممند مستند شود.
پانویس:
[۱] Fraser, Nancy. Scales of Justice: Reimagining Political Space in a Globalizing World. New York: Columbia University Press, 2008.
[۲] درباره عدالت الگوریتمی، میتوانید به منابع زیر مراجعه کنید:
O'Neil, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown Publishers, 2016.
Noble, Safiya Umoja. Algorithms of Oppression: How Search Engines Reinforce Racism. New York: NYU Press, 2018.
نظرها
نظری وجود ندارد.