ارتباط ناشناخته. ارتباط بدون سانسور. ارتباط برقرار نمی‌شود. سایت اصلی احتمالاً زیر سانسور است. ارتباط با سایت (های) موازی برقرار شد. ارتباط برقرار نمی‌شود. ارتباط اینترنت خود را امتحان کنید. احتمال دارد اینترنت به طور سراسری قطع شده باشد. ادامه مطلب

هوش مصنوعی و تهدید علیه تکثر وب: آیا آینده اینترنت در خطر است؟

هوش مصنوعی‌های گفت‌وگومحور مانند ChatGPT و Perplexity با ارائه پاسخ‌های مستقیم، موتورهای جستجو و وب‌سایت‌ها را به حاشیه می‌رانند و آینده وب را تهدید می‌کنند. این فن‌آوری‌ها با تمرکز قدرت اطلاعاتی، خطر سانسور پنهان و حذف صداهای حاشیه‌ای را افزایش می‌دهند، مدل اقتصادی وب را به فروپاشی می‌کشانند و روزنامه‌نگاری را به چالش می‌کشند. آیا می‌توان تعادلی میان فن‌آوری و انسان‌محوری یافت تا تنوع و دموکراسی دیجیتال حفظ شود؟

هوش مصنوعی‌های گفت‌وگومحور مانند ChatGPT و Perplexity در حال بازتعریف جستجوی آنلاین هستند و با ارائه پاسخ‌های جامع و مستقیم، موتورهای جستجوی سنتی و نیاز به بازدید از وب‌سایت‌ها را به چالش می‌کشند. این تحول، آینده شبکه جهانی اینترنت را در معرض خطر قرار داده است. جست‌وجوگرهای هوشمند ادعا می‌کنند که با ترکیب اطلاعات از منابع مختلف، کاربران را از گشت‌وگذار در وب بی‌نیاز می‌کنند، اما این سؤال مطرح می‌شود که اگر کاربران دیگر به وب‌سایت‌ها سر نزنند، چه بر سر وب خواهد آمد؟

تمرکز قدرت اطلاعاتی در دست چند پلتفرم هوش مصنوعی مانند Perplexity خطر سانسور پنهان را به‌طور جدی افزایش می‌دهد. وقتی این پلتفرم‌ها به‌عنوان دروازه‌بانان دانش عمل کنند، می‌توانند با گزینش منابع، اولویت‌دهی به برخی دیدگاه‌ها یا حذف محتوای نامطلوب [از دیدگاه خودشان] (از نظر سیاسی، ایدئولوژیک یا تجاری)، اطلاعات را به‌شکل نامحسوس تحریف کنند. حتی اگر قصدی برای سانسور وجود نداشته باشد، خطاهای الگوریتمی یا تمرکز بر منابع خاص به حذف صداهای اقلیت یا دیدگاه‌های کمتر شنیده‌شده می‌انجامد. این وضعیت شبیه به انحصار اطلاعاتی است که در آن کاربران تنها نسخه‌ای پردازش‌شده از واقعیت را می‌بینند، بی‌آنکه به منابع اصلی دسترسی داشته باشند.

از سوی دیگر، وابستگی کاربران به پاسخ‌های ازپیش‌ساخته‌شده، توانایی جامعه در تشخیص سانسور را تضعیف می‌کند. در وب سنتی، کاربران با مقایسه‌ی منابع مختلف می‌توانستند جانب‌داری یا حذف عمدی اطلاعات را شناسایی کنند، اما در مدل متمرکزِ AI، این شفافیت از بین می‌رود. برای مثال، اگر پلتفرمی به‌دلایل سیاسی یا حقوقی، محتوای مرتبط با یک رویداد خاص را کمرنگ کند، کاربران ممکن است هرگز متوجه نشوند که اطلاعاتی حذف یا دستکاری شده است. این امر به‌ویژه در جوامعی که آزادی رسانه‌ها محدود است، به ابزاری برای تثبیت روایت‌های مسلط تبدیل می‌شود و فضای مجازی را به‌جای میدان گفت‌وگوی آزاد، به یک پژواک‌گاه ایدئولوژیک مبدل می‌کند.

هوش مصنوعی به ابزاری برای اعمال نرم‌افزار قدرت تبدیل شده که نه‌تنها روایت‌های مسلط را بازتولید می‌کند، بلکه با نادیده گرفتن صداهای حاشیه‌ای، اشکال جدیدی از حذف سیستماتیک را طبیعی جلوه می‌دهد. مقاومت در برابر این سیستم نیازمند بازتعریف رادیکال ارزش‌های جمعی است.

وظیفه روزنامه‌نگاری: دقت، عمق و مسئولیت‌پذیری

در واقع، موتورهای هوش مصنوعی مانند Perplexity کاری مشابه روزنامه‌نگاری پشت میز انجام می‌دهند، اما با مقیاس و سرعتی بی‌سابقه و بدون پاسخگویی روشن. روزنامه‌نگاران آنلاین نیز گاه به بازنویسی اخبار موجود متکی هستند، اما معمولاً منابع را ذکر می‌کنند، امکان ردیابی تحریف‌ها را فراهم می‌سازند و در معرض نقد حرفه‌ای قرار دارند. در مقابل، هوش مصنوعی با ترکیب خودکار اطلاعات از منابع ناشناس یا نامعتبر، خطاهای سیستماتیک را نامرئی می‌کند و با حذف فرآیندهای ویرایشی و نظارتی سنتی، اعتماد را به الگوریتم‌های غیرشفاف منتقل می‌کند. این نه‌تنها چالش‌های موجود در روزنامه‌نگاری آنلاین را تشدید می‌کند، بلکه آن را به‌صورت تصاعدی غیرقابل‌ردیابی و غیرمسئولانه گسترش می‌دهد.

روزنامه‌نگاران برای مقابله با این تهدید باید بر تولید محتوای اصیل، تحلیلی و مبتنی بر شفافیت تمرکز کنند: با ارائه‌ی گزارش‌های میدانی، استناد به منابع قابل‌اعتماد و چندگانه، و افشای روش‌های تحقیق، می‌توانند به مخاطبان نشان دهند که تفاوت محتوای حرفه‌ای با خروجی‌های خودکارِ AI در دقت، عمق و مسئولیت‌پذیری است. همچنین، باید با توضیح محدودیت‌های هوش مصنوعی در پردازش اخبار، مخاطب را به مصرف آگاهانه‌تر اطلاعات ترغیب کنند.

در عمل اما فشار رقابت و نیاز به انتشار فوری اخبار و محتوای تحلیلی، روزنامه‌نگاران را به دام بازتولید سریع محتوای موجود می‌اندازد، حتی اگر این محتوا سطحی یا مبتنی بر ترندهای گذرا باشد. الگوریتم‌های پلتفرم‌ها نیز با تقویت محتوای پربازدید اما کم‌عمق، این چرخه را تشدید می‌کنند و اولویت را به سرعت و جذابیت می‌دهند، نه دقت و تحلیل. در نتیجه، بسیاری از رسانه‌ها ترجیح می‌دهند به جای سرمایه‌گذاری روی گزارش‌های عمیق، همان مسیر هوش مصنوعی را دنبال کنند: تکثیر اطلاعات، نه روشنگری. این روند نه‌تنها جایگاه حرفه‌ای روزنامه‌نگاری را تضعیف می‌کند، بلکه فضای رسانه‌ای را به بازاری پرسر و صدا اما کم‌محتوا تبدیل می‌کند که در آن حقیقت قربانی ترافیک می‌شود.

 مدل اقتصادی وب در خطر فروپاشی

با موتورهای جستجوی مبتنی بر هوش مصنوعی که دیگر نیازی به کلیک روی لینک‌ها ندارند، کل مدل اقتصادی وب در خطر فروپاشی است. این هوش‌های مصنوعی برای ارائه پاسخ‌های باکیفیت به محتوای وب‌سایت‌ها وابسته‌اند اما کاربران را از بازدید این سایت‌ها بی‌نیاز می‌کنند. درحالی‌که ناشران بزرگی مانند نیویورک تایمز یا لوموند با شرکت‌های هوش مصنوعی قراردادهای مالی بسته‌اند، بسیاری از ناشران کوچک و بزرگ شاهد مکیده شدن محتوای خود و سقوط بازدیدهایشان هستند. 

بر اساس داده‌های منتشرشده توسط Similarweb، پس از راه‌اندازی AI Overviews گوگل در آمریکا در مه ۲۰۲۴، ترافیک وب‌سایت‌های خبری از موتورهای جستجو به طور قابل توجهی کاهش یافته است. طبق گزارش‌ها، درصد جستجوهای خبری که بدون کلیک به وب‌سایت‌های خبری پایان می‌یابند، از ۵۶٪ در مه ۲۰۲۴ به تقریباً ۶۹٪ در مه ۲۰۲۵ رسیده است. همچنین، ترافیک ارگانیک به وب‌سایت‌های خبری از بیش از ۲.۳ میلیارد بازدید در اوج خود در میانه ۲۰۲۴ به کمتر از ۱.۷ میلیارد در مه ۲۰۲۵ کاهش یافته است. (ن. ک به BusinessGhan)

اکنون این پرسش مطرح می‌شود که اگر انگیزه مالی از بین برود، اگر حتی لذت آماتورها از دیده شدن سایت‌هایشان باقی نماند، چرا باید به انتشار محتوا در وب ادامه دهند؟

\nآینده به مدلی نیاز دارد که در آن هوش مصنوعی و محتوای انسانی یکدیگر را تکمیل کنند، نه اینکه به رقابتی مخرب تبدیل شوند. این تنها راه حفظ تنوع، اعتماد و پویایی در عصر دیجیتال است. در چارچوب نظام سرمایه‌داری متأخر، موانع ساختاری عمیقی بر سر راه تحقق این تعادل وجود دارد: انحصارگرایی فناورانه (توسط غول‌هایی مانند گوگل، متا و اپل) و منطق سودمحور آنها، هرگونه اصلاح را به حاشیه می‌راند. \n

این بحران، یک چرخه معیوب خطرناک را ایجاد می‌کند: هرچه موتورهای جستجوی هوش مصنوعی محتوای بیشتری را بدون ارجاع به منابع اصلی ارائه دهند، ناشران (به ویژه رسانه‌های کوچک و مستقل) انگیزه کمتری برای تولید محتوای باکیفیت خواهند داشت. در بلندمدت، این امر منجر به فقیر شدن اکوسیستم اطلاعاتی وب می‌شود، چرا که هوش مصنوعی‌ها مجبور خواهند شد با داده‌های محدودتر و کمتر تازه کار کنند. حاصل ممکن است دنیایی باشد که در آن تنها معدود بازیگران بزرگ قادر به بقا هستند و تنوع دیدگاه‌ها قربانی می‌شود. دقیقاً برخلاف روحیه دموکراتیک و چندصدایی که اینترنت در ابتدا وعده آن را داده بود.

فرانچسکا موسیانی (Francesca Musiani)، جامعه‌شناس فن‌آوری و پژوهشگر مرکز ملی پژوهش‌های علمی فرانسه (CNRS)، در سال‌های اخیر به طور فعال درباره تأثیر هوش مصنوعی بر وب و فضای دیجیتال هشدار داده است. او به ویژه نگران تبدیل شدن وب به یک پایگاه داده صرف برای مدل‌های هوش مصنوعی و کاهش نقش کاربران انسانی است. او در گفت‌وگو با لوموند گفته است:

این خطر دارد که وب به یک پایگاه داده برای هوش‌های مصنوعی مولد تبدیل شود، نه فضایی برای کاربران اینترنت. حفظ وب یک مسئله دموکراتیک است: استانداردسازی پاسخ‌ها توسط هوش مصنوعی می‌تواند تکثر صداها را کاهش دهد و ردیابی منابع را دشوارتر کند.

گروه‌های به حاشیه‌رانده‌شده مانند اقلیت‌های زبانی، زنان، جامعه +LGBTQ و پناهجویان بیش از همه از این تحول متضرر خواهند شد، چرا که پیش‌تر هم با کمبود نمایندگی در محتوای اصلی وب مواجه بودند. با تضعیف مدل‌های اقتصادی تولید محتوا، صدای این گروه‌ها پیش از آنکه به رسمیت شناخته شود، در خطر خاموشی قرار می‌گیرد. هوش‌های مصنوعی که بر اساس داده‌های موجود آموزش می‌بینند، ناخواسته این حذف سیستماتیک را تقویت می‌کنند و چرخه‌ای ایجاد می‌کنند که در آن تنها روایت‌های مسلط بازتولید می‌شوند. نتیجه این روند، جهانی دیجیتالی است که نه تنها تنوع را منعکس نمی‌کند، بلکه به تدریج آن را از حافظه جمعی ما نیز پاک می‌کند.

لوک ژولیا (Luc Julia)، خالق مشترک سیری و نویسنده کتاب «Generative AI, not creative» (هوش مصنوعی مولد، نه خلاق)، در کتاب و سخنرانی‌هایش تأکید می‌کند که مدل‌های مولد هوش مصنوعی برای پاسخ به پرسش‌های ساده (مانند تاریخ مرگ ناپلئون) منابع بسیار بیشتری نسبت به جستجوی گوگل مصرف می‌کنند و این موضوع را یک «مصیبت زیست‌محیطی» می‌داند. او پیشنهاد می‌دهد که برای وظایف ساده، استفاده از سیستم‌های کم‌مصرف‌تر و تخصصی‌تر بسیار منطقی‌تر است. (در این زمینه ن. ک به Bechuetassocies)

راه‌حل و موانع آن

راه‌حل، ایجاد تعادل هوشمندانه بین فن‌آوری و انسان‌محوری است: باید با تنظیم مقررات شفاف برای جبران مالی ناشران، توسعه ابزارهای تشخیص محتوای AI-generated، و تشویق کاربران به تردید سالم نسبت به پاسخ‌های ماشینی، از اکوسیستم وب محافظت کنیم. همزمان، هوش مصنوعی باید به‌جای جایگزینی کامل انسان، به عنوان ابزاری کمکی برای تقویت خلاقیت، دقت و کارایی مورد استفاده قرار گیرد. آینده به مدلی نیاز دارد که در آن هوش مصنوعی و محتوای انسانی یکدیگر را تکمیل کنند، نه اینکه به رقابتی مخرب تبدیل شوند. این تنها راه حفظ تنوع، اعتماد و پویایی در عصر دیجیتال است.

در چارچوب نظام سرمایه‌داری متأخر، موانع ساختاری عمیقی بر سر راه تحقق این تعادل وجود دارد: انحصارگرایی فن‌آورانه (توسط غول‌هایی مانند گوگل، متا و اپل) و منطق سودمحور آنها، هرگونه اصلاح را به حاشیه می‌راند. این شرکت‌ها با تکیه بر منطق انباشت سرمایه که مارکس آن را موتور محرکه‌ی سرمایه‌داری می‌دانست ترجیح می‌دهند به‌جای سرمایه‌گذاری بر شفافیت یا تنوع، الگوریتم‌های خود را برای حداکثرسازی تعامل کاربر (و در نتیجه درآمد تبلیغاتی) بهینه‌سازی کنند.  

مفهوم «دانش-قدرت» (Power/Knowledge) یکی از مفاهیم کلیدی در اندیشه میشل فوکو است که در آثار مختلف او به ویژه در دهه‌های ۱۹۷۰ و ۱۹۸۰ مطرح شده است. فوکو رابطه‌ای درهم‌تنیده میان دانش و قدرت قائل است و معتقد است که دانش نه تنها تحت تأثیر قدرت شکل می‌گیرد، بلکه خود ابزاری برای اعمال و بازتولید قدرت است. از این منظر، این بحران بازتابی از «دانش-قدرت» در عصر دیجیتال است: هوش مصنوعی به ابزاری برای اعمال نرم‌افزار قدرت تبدیل شده که نه‌تنها روایت‌های مسلط را بازتولید می‌کند، بلکه با نادیده گرفتن صداهای حاشیه‌ای، اشکال جدیدی از حذف سیستماتیک را طبیعی جلوه می‌دهد. مقاومت در برابر این سیستم نیازمند بازتعریف رادیکال ارزش‌های جمعی است.

بیشتر بخوانید:

این مطلب را پسندیدید؟ کمک مالی شما به ما این امکان را خواهد داد که از این نوع مطالب بیشتر منتشر کنیم.

آیا مایل هستید ما را در تحقیق و نوشتن تعداد بیشتری از این‌گونه مطالب یاری کنید؟

.در حال حاضر امکان دریافت کمک مخاطبان ساکن ایران وجود ندارد

توضیح بیشتر در مورد اینکه چطور از ما حمایت کنید

نظر بدهید

در پرکردن فرم خطایی صورت گرفته

نظرها

  • ایراندوست

    چندی پیش از پرپلیکسیتی پرسیدم به چه میزان در پاسخها دچار توهم میشوی گفت بین ۲۰-۱۵٪ و بعد راه های چون ارجاع به منابع و از جواب،سوال درآوردن و....را پیشنهاد کرد. الآن پلاتفرمهای زبانی شرکت‌های هوش مصنوعی در پی ایجاد موتورهای جستجوگر خودشان هستند. البته نقد فرایند کسب اطلاعات هوش های مصنوعی در این مقاله درست و قابل توجه است