هوش مصنوعی و تهدید علیه تکثر وب: آیا آینده اینترنت در خطر است؟
هوش مصنوعیهای گفتوگومحور مانند ChatGPT و Perplexity با ارائه پاسخهای مستقیم، موتورهای جستجو و وبسایتها را به حاشیه میرانند و آینده وب را تهدید میکنند. این فنآوریها با تمرکز قدرت اطلاعاتی، خطر سانسور پنهان و حذف صداهای حاشیهای را افزایش میدهند، مدل اقتصادی وب را به فروپاشی میکشانند و روزنامهنگاری را به چالش میکشند. آیا میتوان تعادلی میان فنآوری و انسانمحوری یافت تا تنوع و دموکراسی دیجیتال حفظ شود؟

هوش مصنوعی (عکس: شاتراستاک)
هوش مصنوعیهای گفتوگومحور مانند ChatGPT و Perplexity در حال بازتعریف جستجوی آنلاین هستند و با ارائه پاسخهای جامع و مستقیم، موتورهای جستجوی سنتی و نیاز به بازدید از وبسایتها را به چالش میکشند. این تحول، آینده شبکه جهانی اینترنت را در معرض خطر قرار داده است. جستوجوگرهای هوشمند ادعا میکنند که با ترکیب اطلاعات از منابع مختلف، کاربران را از گشتوگذار در وب بینیاز میکنند، اما این سؤال مطرح میشود که اگر کاربران دیگر به وبسایتها سر نزنند، چه بر سر وب خواهد آمد؟
تمرکز قدرت اطلاعاتی در دست چند پلتفرم هوش مصنوعی مانند Perplexity خطر سانسور پنهان را بهطور جدی افزایش میدهد. وقتی این پلتفرمها بهعنوان دروازهبانان دانش عمل کنند، میتوانند با گزینش منابع، اولویتدهی به برخی دیدگاهها یا حذف محتوای نامطلوب [از دیدگاه خودشان] (از نظر سیاسی، ایدئولوژیک یا تجاری)، اطلاعات را بهشکل نامحسوس تحریف کنند. حتی اگر قصدی برای سانسور وجود نداشته باشد، خطاهای الگوریتمی یا تمرکز بر منابع خاص به حذف صداهای اقلیت یا دیدگاههای کمتر شنیدهشده میانجامد. این وضعیت شبیه به انحصار اطلاعاتی است که در آن کاربران تنها نسخهای پردازششده از واقعیت را میبینند، بیآنکه به منابع اصلی دسترسی داشته باشند.
از سوی دیگر، وابستگی کاربران به پاسخهای ازپیشساختهشده، توانایی جامعه در تشخیص سانسور را تضعیف میکند. در وب سنتی، کاربران با مقایسهی منابع مختلف میتوانستند جانبداری یا حذف عمدی اطلاعات را شناسایی کنند، اما در مدل متمرکزِ AI، این شفافیت از بین میرود. برای مثال، اگر پلتفرمی بهدلایل سیاسی یا حقوقی، محتوای مرتبط با یک رویداد خاص را کمرنگ کند، کاربران ممکن است هرگز متوجه نشوند که اطلاعاتی حذف یا دستکاری شده است. این امر بهویژه در جوامعی که آزادی رسانهها محدود است، به ابزاری برای تثبیت روایتهای مسلط تبدیل میشود و فضای مجازی را بهجای میدان گفتوگوی آزاد، به یک پژواکگاه ایدئولوژیک مبدل میکند.
وظیفه روزنامهنگاری: دقت، عمق و مسئولیتپذیری
در واقع، موتورهای هوش مصنوعی مانند Perplexity کاری مشابه روزنامهنگاری پشت میز انجام میدهند، اما با مقیاس و سرعتی بیسابقه و بدون پاسخگویی روشن. روزنامهنگاران آنلاین نیز گاه به بازنویسی اخبار موجود متکی هستند، اما معمولاً منابع را ذکر میکنند، امکان ردیابی تحریفها را فراهم میسازند و در معرض نقد حرفهای قرار دارند. در مقابل، هوش مصنوعی با ترکیب خودکار اطلاعات از منابع ناشناس یا نامعتبر، خطاهای سیستماتیک را نامرئی میکند و با حذف فرآیندهای ویرایشی و نظارتی سنتی، اعتماد را به الگوریتمهای غیرشفاف منتقل میکند. این نهتنها چالشهای موجود در روزنامهنگاری آنلاین را تشدید میکند، بلکه آن را بهصورت تصاعدی غیرقابلردیابی و غیرمسئولانه گسترش میدهد.
روزنامهنگاران برای مقابله با این تهدید باید بر تولید محتوای اصیل، تحلیلی و مبتنی بر شفافیت تمرکز کنند: با ارائهی گزارشهای میدانی، استناد به منابع قابلاعتماد و چندگانه، و افشای روشهای تحقیق، میتوانند به مخاطبان نشان دهند که تفاوت محتوای حرفهای با خروجیهای خودکارِ AI در دقت، عمق و مسئولیتپذیری است. همچنین، باید با توضیح محدودیتهای هوش مصنوعی در پردازش اخبار، مخاطب را به مصرف آگاهانهتر اطلاعات ترغیب کنند.
در عمل اما فشار رقابت و نیاز به انتشار فوری اخبار و محتوای تحلیلی، روزنامهنگاران را به دام بازتولید سریع محتوای موجود میاندازد، حتی اگر این محتوا سطحی یا مبتنی بر ترندهای گذرا باشد. الگوریتمهای پلتفرمها نیز با تقویت محتوای پربازدید اما کمعمق، این چرخه را تشدید میکنند و اولویت را به سرعت و جذابیت میدهند، نه دقت و تحلیل. در نتیجه، بسیاری از رسانهها ترجیح میدهند به جای سرمایهگذاری روی گزارشهای عمیق، همان مسیر هوش مصنوعی را دنبال کنند: تکثیر اطلاعات، نه روشنگری. این روند نهتنها جایگاه حرفهای روزنامهنگاری را تضعیف میکند، بلکه فضای رسانهای را به بازاری پرسر و صدا اما کممحتوا تبدیل میکند که در آن حقیقت قربانی ترافیک میشود.
مدل اقتصادی وب در خطر فروپاشی
با موتورهای جستجوی مبتنی بر هوش مصنوعی که دیگر نیازی به کلیک روی لینکها ندارند، کل مدل اقتصادی وب در خطر فروپاشی است. این هوشهای مصنوعی برای ارائه پاسخهای باکیفیت به محتوای وبسایتها وابستهاند اما کاربران را از بازدید این سایتها بینیاز میکنند. درحالیکه ناشران بزرگی مانند نیویورک تایمز یا لوموند با شرکتهای هوش مصنوعی قراردادهای مالی بستهاند، بسیاری از ناشران کوچک و بزرگ شاهد مکیده شدن محتوای خود و سقوط بازدیدهایشان هستند.
بر اساس دادههای منتشرشده توسط Similarweb، پس از راهاندازی AI Overviews گوگل در آمریکا در مه ۲۰۲۴، ترافیک وبسایتهای خبری از موتورهای جستجو به طور قابل توجهی کاهش یافته است. طبق گزارشها، درصد جستجوهای خبری که بدون کلیک به وبسایتهای خبری پایان مییابند، از ۵۶٪ در مه ۲۰۲۴ به تقریباً ۶۹٪ در مه ۲۰۲۵ رسیده است. همچنین، ترافیک ارگانیک به وبسایتهای خبری از بیش از ۲.۳ میلیارد بازدید در اوج خود در میانه ۲۰۲۴ به کمتر از ۱.۷ میلیارد در مه ۲۰۲۵ کاهش یافته است. (ن. ک به BusinessGhan)
اکنون این پرسش مطرح میشود که اگر انگیزه مالی از بین برود، اگر حتی لذت آماتورها از دیده شدن سایتهایشان باقی نماند، چرا باید به انتشار محتوا در وب ادامه دهند؟
\nآینده به مدلی نیاز دارد که در آن هوش مصنوعی و محتوای انسانی یکدیگر را تکمیل کنند، نه اینکه به رقابتی مخرب تبدیل شوند. این تنها راه حفظ تنوع، اعتماد و پویایی در عصر دیجیتال است. در چارچوب نظام سرمایهداری متأخر، موانع ساختاری عمیقی بر سر راه تحقق این تعادل وجود دارد: انحصارگرایی فناورانه (توسط غولهایی مانند گوگل، متا و اپل) و منطق سودمحور آنها، هرگونه اصلاح را به حاشیه میراند. \n
این بحران، یک چرخه معیوب خطرناک را ایجاد میکند: هرچه موتورهای جستجوی هوش مصنوعی محتوای بیشتری را بدون ارجاع به منابع اصلی ارائه دهند، ناشران (به ویژه رسانههای کوچک و مستقل) انگیزه کمتری برای تولید محتوای باکیفیت خواهند داشت. در بلندمدت، این امر منجر به فقیر شدن اکوسیستم اطلاعاتی وب میشود، چرا که هوش مصنوعیها مجبور خواهند شد با دادههای محدودتر و کمتر تازه کار کنند. حاصل ممکن است دنیایی باشد که در آن تنها معدود بازیگران بزرگ قادر به بقا هستند و تنوع دیدگاهها قربانی میشود. دقیقاً برخلاف روحیه دموکراتیک و چندصدایی که اینترنت در ابتدا وعده آن را داده بود.
فرانچسکا موسیانی (Francesca Musiani)، جامعهشناس فنآوری و پژوهشگر مرکز ملی پژوهشهای علمی فرانسه (CNRS)، در سالهای اخیر به طور فعال درباره تأثیر هوش مصنوعی بر وب و فضای دیجیتال هشدار داده است. او به ویژه نگران تبدیل شدن وب به یک پایگاه داده صرف برای مدلهای هوش مصنوعی و کاهش نقش کاربران انسانی است. او در گفتوگو با لوموند گفته است:
این خطر دارد که وب به یک پایگاه داده برای هوشهای مصنوعی مولد تبدیل شود، نه فضایی برای کاربران اینترنت. حفظ وب یک مسئله دموکراتیک است: استانداردسازی پاسخها توسط هوش مصنوعی میتواند تکثر صداها را کاهش دهد و ردیابی منابع را دشوارتر کند.
گروههای به حاشیهراندهشده مانند اقلیتهای زبانی، زنان، جامعه +LGBTQ و پناهجویان بیش از همه از این تحول متضرر خواهند شد، چرا که پیشتر هم با کمبود نمایندگی در محتوای اصلی وب مواجه بودند. با تضعیف مدلهای اقتصادی تولید محتوا، صدای این گروهها پیش از آنکه به رسمیت شناخته شود، در خطر خاموشی قرار میگیرد. هوشهای مصنوعی که بر اساس دادههای موجود آموزش میبینند، ناخواسته این حذف سیستماتیک را تقویت میکنند و چرخهای ایجاد میکنند که در آن تنها روایتهای مسلط بازتولید میشوند. نتیجه این روند، جهانی دیجیتالی است که نه تنها تنوع را منعکس نمیکند، بلکه به تدریج آن را از حافظه جمعی ما نیز پاک میکند.
لوک ژولیا (Luc Julia)، خالق مشترک سیری و نویسنده کتاب «Generative AI, not creative» (هوش مصنوعی مولد، نه خلاق)، در کتاب و سخنرانیهایش تأکید میکند که مدلهای مولد هوش مصنوعی برای پاسخ به پرسشهای ساده (مانند تاریخ مرگ ناپلئون) منابع بسیار بیشتری نسبت به جستجوی گوگل مصرف میکنند و این موضوع را یک «مصیبت زیستمحیطی» میداند. او پیشنهاد میدهد که برای وظایف ساده، استفاده از سیستمهای کممصرفتر و تخصصیتر بسیار منطقیتر است. (در این زمینه ن. ک به Bechuetassocies)
راهحل و موانع آن
راهحل، ایجاد تعادل هوشمندانه بین فنآوری و انسانمحوری است: باید با تنظیم مقررات شفاف برای جبران مالی ناشران، توسعه ابزارهای تشخیص محتوای AI-generated، و تشویق کاربران به تردید سالم نسبت به پاسخهای ماشینی، از اکوسیستم وب محافظت کنیم. همزمان، هوش مصنوعی باید بهجای جایگزینی کامل انسان، به عنوان ابزاری کمکی برای تقویت خلاقیت، دقت و کارایی مورد استفاده قرار گیرد. آینده به مدلی نیاز دارد که در آن هوش مصنوعی و محتوای انسانی یکدیگر را تکمیل کنند، نه اینکه به رقابتی مخرب تبدیل شوند. این تنها راه حفظ تنوع، اعتماد و پویایی در عصر دیجیتال است.
در چارچوب نظام سرمایهداری متأخر، موانع ساختاری عمیقی بر سر راه تحقق این تعادل وجود دارد: انحصارگرایی فنآورانه (توسط غولهایی مانند گوگل، متا و اپل) و منطق سودمحور آنها، هرگونه اصلاح را به حاشیه میراند. این شرکتها با تکیه بر منطق انباشت سرمایه که مارکس آن را موتور محرکهی سرمایهداری میدانست ترجیح میدهند بهجای سرمایهگذاری بر شفافیت یا تنوع، الگوریتمهای خود را برای حداکثرسازی تعامل کاربر (و در نتیجه درآمد تبلیغاتی) بهینهسازی کنند.
مفهوم «دانش-قدرت» (Power/Knowledge) یکی از مفاهیم کلیدی در اندیشه میشل فوکو است که در آثار مختلف او به ویژه در دهههای ۱۹۷۰ و ۱۹۸۰ مطرح شده است. فوکو رابطهای درهمتنیده میان دانش و قدرت قائل است و معتقد است که دانش نه تنها تحت تأثیر قدرت شکل میگیرد، بلکه خود ابزاری برای اعمال و بازتولید قدرت است. از این منظر، این بحران بازتابی از «دانش-قدرت» در عصر دیجیتال است: هوش مصنوعی به ابزاری برای اعمال نرمافزار قدرت تبدیل شده که نهتنها روایتهای مسلط را بازتولید میکند، بلکه با نادیده گرفتن صداهای حاشیهای، اشکال جدیدی از حذف سیستماتیک را طبیعی جلوه میدهد. مقاومت در برابر این سیستم نیازمند بازتعریف رادیکال ارزشهای جمعی است.
نظرها
ایراندوست
چندی پیش از پرپلیکسیتی پرسیدم به چه میزان در پاسخها دچار توهم میشوی گفت بین ۲۰-۱۵٪ و بعد راه های چون ارجاع به منابع و از جواب،سوال درآوردن و....را پیشنهاد کرد. الآن پلاتفرمهای زبانی شرکتهای هوش مصنوعی در پی ایجاد موتورهای جستجوگر خودشان هستند. البته نقد فرایند کسب اطلاعات هوش های مصنوعی در این مقاله درست و قابل توجه است