ارتباط ناشناخته. ارتباط بدون سانسور. ارتباط برقرار نمی‌شود. سایت اصلی احتمالاً زیر سانسور است. ارتباط با سایت (های) موازی برقرار شد. ارتباط برقرار نمی‌شود. ارتباط اینترنت خود را امتحان کنید. احتمال دارد اینترنت به طور سراسری قطع شده باشد. ادامه مطلب

فن‌آوری، قدرت، و برساخت واقعیت: چالش‌های شفافیت و عدالت در عصر داده‌های کلان

این گزارش نشان می‌دهد که الگوریتم‌های مبتنی بر داده‌های کلان، ضمن ارائه امکانات بی‌سابقه برای تحلیل فرهنگ و ارتباطات، واقعیت‌های اجتماعی جدیدی خلق می‌کنند که به دلیل عدم شفافیت و تمرکز قدرت در دست غول‌های فن‌آوری یا رژیم‌های سانسورگر، می‌توانند نابرابری‌ها، تعصب‌ها و سرکوب را تشدید کنند.

آنچه که پیش از این گفته شد

لشکرهای سایبری که در ابتدا به‌صورت گروه‌های نیمه‌سازمان‌یافته و داوطلبانه در کشورهایی مانند ایران ظهور کردند، با اقدام‌های ابتدایی مانند هک وب‌سایت‌ها و انتشار محتوای تبلیغاتی، پایه‌گذار جنگ سایبری مدرن شدند. در ایران، این گروه‌ها تحت نظارت نهادهایی مانند سپاه پاسداران فعالیت می‌کردند و به‌تدریج با تأسیس «فرماندهی امنیت سایبری» به ساختارهای حرفه‌ای‌تر با ابزارهای پیشرفته و استراتژی‌های پیچیده، مانند استفاده از بدافزارهای هدفمند و عملیات روانی، تحول یافتند. این تحول، که پس از حملاتی مانند استاکسنت تسریع شد، نشان‌دهنده گذار از اقدام‌های پراکنده به عملیات‌های برنامه‌ریزی‌شده با تأثیرهای استراتژیک است. در مقایسه، نیروهای سایبری مدرن جهانی از فن‌آوری‌های پیشرفته مانند هوش مصنوعی و حمله‌های زیرساختی بهره می‌برند و از مشروعیت قانونی برخوردارند. در عین حال، پدیده «مهندسی انتخابات» با استفاده از داده‌های رفتاری و الگوریتم‌های شخصی‌سازی، دموکراسی‌ها را تهدید می‌کند. مفاهیمی مانند «کنترل معکوس» کاستلز و «قدرت مقاومتی» فوکو نشان می‌دهند که مقاومت جمعی، تقویت سرمایه اجتماعی و شبکه‌های اعتماد محلی می‌توانند در برابر جنگ روانی و کنترل هژمونیک، به‌ویژه در نظام‌های توتالیتر مانند ایران، مؤثر باشند، هرچند با چالش‌هایی مانند سانسور و نظارت شدید مواجه هستند.

اکنون ادامه این بحث را پی می‌گیریم:

الی پارایزر در «حباب فیلتر» این نظر را مطرح می‌کند که پیشرفت‌های فن‌آوری، به‌ویژه رویکردهای مبتنی بر داده‌های عظیم گوگل (مانند پروژه ان‌گرام[۱] و گوگل ترنسلیت)، امکان‌های شگفت‌انگیزی برای تحلیل فرهنگ، ارتباطات بین‌فرهنگی و حتی خلق هوش مصنوعی فراهم کرده‌اند، اما این سیستم‌های پیچیده و «هوشمند» به دلیل مبهم بودن و دشواری در درک عملکردشان، خطراتی مانند تعصب‌های پنهان، سانسور، و عدم پاسخگویی را به همراه دارند.

پارایزر هشدار می‌دهد که وابستگی بیش‌ازحد به این سیستم‌ها بدون مدل‌های قابل‌فهم برای انسان‌ها می‌تواند به مشکل‌هایی جدی منجر شود، از جمله کاهش شفافیت و کنترل بر تصمیم‌گیری‌های الگوریتمی که زندگی ما را شکل می‌دهند. او بر اهمیت تعادل بین بهره‌وری فن‌آوری و درک انسانی تأکید می‌کند تا از فجایع احتمالی جلوگیری شود.

پارایزر به یک معنای ژرف‌تر بر آن است که پیشرفت‌های فن‌آوری صرفاً ابزاری خنثی نیستند، بلکه بازتاب‌دهنده و تقویت‌کننده روابط قدرت، نابرابری‌ها و تحول‌های فرهنگی‌اند. برای جلوگیری از «فجایع احتمالی»، باید به دنبال مدل‌های شفافیت، پاسخگویی، و مشارکت جمعی در طراحی و نظارت بر فن‌آوری بود.

در واقع می‌توان گفت آنچه که نگران‌کننده است، این است که سیستم‌های الگوریتمی با پردازش داده‌های عظیم، سازندگان پنهان واقعیت‌اند. آن‌ها تعیین می‌کنند چه اطلاعاتی دیده شود، چگونه ترجمه شود، و چه فرهنگی «قابل فهم» جلوه کند. این امر ممکن است به یکسان‌سازی فرهنگی یا تحریف مفاهیم بین‌فرهنگی منجر شود.

شکل‌گیری واقعیت اجتماعی و گفتمان

از منظر پیتر برگر و توماس لاکمن در کتاب «ساخت اجتماعی واقعیت»[۲]، واقعیت‌های اجتماعی از طریق فرآیندهای برون‌سازی (Externalization)، عینیت‌یابی (Objectivation) و درون‌سازی (Internalization) شکل می‌گیرند. ابتدا افراد از طریق کنش‌های روزمره و تعامل‌های اجتماعی، معناها و الگوهای رفتاری را خلق می‌کنند (برون‌سازی). این معناها به مرور زمان از طریق نهادها، زبان و عادت‌واره‌ها تثبیت شده و به صورت ساختارهای عینی و مستقل از افراد درمی‌آیند (عینیت‌یابی). سپس نسل‌های بعدی این ساختارها را از طریق جامعه‌پذیری درونی می‌کنند و به عنوان اموری «طبیعی» و «بدیهی» می‌پذیرند (درون‌سازی). به این ترتیب، واقعیت اجتماعی محصول دیالکتیکی میان کنش انسان‌ها و ساختارهای نهادی است که خودشان ساخته‌اند.

برگر و لاکمن تأکید می‌کنند که این فرآیندها ابهام‌آمیز و تاریخی‌اند؛ یعنی واقعیت‌های اجتماعی نه ذاتی هستند و نه دائمی، بلکه برساخته‌ای جمعی‌اند که می‌توانند تغییر کنند. برای مثال، نهادهایی مانند ازدواج یا دین در ابتدا پاسخ به نیازهای خاصی بودند، اما با گذشت زمان، معنای اصلی آنها کمرنگ شده و توجیه‌های جدیدی جایگزین شده است («مشروع‌سازی»). این امر نشان می‌دهد که حتی ساختارهای به ظاهر ثابت اجتماعی نیز محصول بازتعریف مستمر کنشگران هستند و می‌توانند مورد بازاندیشی قرار گیرند.

برگر و لاکمن با تأکید بر برساخته‌بودن واقعیت‌های اجتماعی و نقش کنشگران در شکل‌دهی و بازتعریف آن‌ها، به پارایزر نزدیک می‌شوند؛زیرا همانطور که پیشتر گفتیم پارایزر نیز هشدار می‌دهد که سیستم‌های هوشمند مبتنی بر داده‌های کلان (مانند الگوریتم‌های گوگل) با عینیت‌بخشیدن به ترجیح‌ها، تعصب‌ها و هنجارهای خاص، واقعیت‌های جدیدی می‌سازند که به‌ظاهر «طبیعی» و «خنثی» جلوه می‌کنند، اما درواقع محصول فرآیندهای غیرشفاف و قدرت‌مدارانه هستند. همان‌طور که نهادهایی مانند ازدواج یا دین در گذر زمان بازتعریف می‌شوند، الگوریتم‌ها نیز با مشروع‌سازیِ گفتمان‌های خاص (مثلاً اولویت‌دادن به برخی زبان‌ها یا فرهنگ‌ها در ترجمه ماشینی) واقعیت‌های اجتماعی جدیدی می‌آفرینند که کاربران آن‌ها را بدون بازاندیشی می‌پذیرند. تفاوت کلیدی اینجاست که در حالی که برگر و لاکمن بر عاملیت انسانی در بازسازی واقعیت تأکید دارند، پارایزر نشان می‌دهد سیستم‌های هوشمند با کاهش شفافیت و کنترل انسانی، این فرآیند را به شکلی نامتوازن و بالقوه خطرناک پیش می‌برند. به عبارت دیگر، هر دو دیدگاه توافق دارند که واقعیت‌های اجتماعی برساخته و تغییرپذیر هستند، اما پارایزر اضافه می‌کند که فن‌آوری‌های جدید این برساخت را از حوزه آگاهی جمعی خارج کرده و به دست مکانیسم‌های غیرپاسخگو می‌سپارند.

بنابراین می‌توانیم بگوییم که نظام‌های مبتنی بر سانسور، مانند چین یا ایران، می‌توانند از سازوکار الگوریتم‌های هوشمند مبتنی بر داده‌های کلان برای تقویت کنترل اجتماعی و شکل‌دهی واقعیت‌های اجتماعی بهره ببرند. این نظام‌ها با استفاده از فن‌آوری‌هایی مانند پروژه «سپر طلایی» و الگوریتم‌های هوش مصنوعی، محتوای آنلاین را فیلتر کرده و گفتمان‌های «مطلوب» را ترویج می‌دهند، در حالی که انتقادها یا ایده‌های مخالف را سرکوب می‌کنند. مشابه دیدگاه برگر و لاکمن، این الگوریتم‌ها واقعیت اجتماعی را برساخته و با مشروعیت‌بخشی به روایت‌های دولتی، آن را «طبیعی» جلوه می‌دهند. اما برخلاف تأکید برگر و لاکمن بر عاملیت انسانی، این سیستم‌ها، همان‌طور که پارایزر هشدار می‌دهد، با کاهش شفافیت و تمرکز قدرت در مکانیسم‌های غیرپاسخگو (مانند مدل‌های زبانی بزرگ که محتوای حساس را سانسور می‌کنند)، عاملیت انسانی را محدود کرده و نظارت گسترده‌ای را اعمال می‌کنند.

پانویس:

[۱] پروژه ان‌گرام ابتکاری از گوگل و پژوهشگران هاروارد است که پایگاهی داده‌ای از محتوای بیش از ۵.۲ میلیون کتاب در ۵۰۰ سال گذشته ایجاد کرده است. ابزار «نمایگر ان‌گرام» به کاربران امکان می‌دهد محبوبیت عبارت‌ها را در طول زمان ردیابی کنند و به تحلیل کمی روندهای فرهنگی و شناسایی سانسور کمک می‌کند.

[۲] پیتر برگر و توماس لاکمن، ساخت اجتماعی واقعیت: رساله‌ای در جامعه‌شناسی معرفت (عنوان اصلی: The Social Construction of Reality: A Treatise in the Sociology of Knowledge، انتشار: ۱۹۶۶). این کتاب به فارسی توسط فرزانه طاهری با عنوان ساخت اجتماعی واقعیت ترجمه و منتشر شده است (نشر مرکز، ۱۳۸۹).

بیشتر بخوانید:

این مطلب را پسندیدید؟ کمک مالی شما به ما این امکان را خواهد داد که از این نوع مطالب بیشتر منتشر کنیم.

آیا مایل هستید ما را در تحقیق و نوشتن تعداد بیشتری از این‌گونه مطالب یاری کنید؟

.در حال حاضر امکان دریافت کمک مخاطبان ساکن ایران وجود ندارد

توضیح بیشتر در مورد اینکه چطور از ما حمایت کنید

نظر بدهید

در پرکردن فرم خطایی صورت گرفته

نظرها

نظری وجود ندارد.