«هوش مصنوعی از هر سه پاسخ، یکی را جعل میکند»
مطالعههای جدید «اتحادیه پخش اروپا» (EBU) نشاندهنده نرخ بالای خطا در چتباتهای محبوب هوش مصنوعی است. این سامانهها بهطور منظم اطلاعاتی از خود اختراع میکنند و حتی منابع نادرست ارائه میدهند.

هوش مصنوعی و اطلاعات انسان ـ عکس از شاتراستاک
شما از «جتجیپیتی» (ChatGPT) در مورد نتایج انتخابات میپرسید، از «کلود» (Claude) میخواهید خبرها را خلاصه کند یا از « پرپلکسیتی» (Perplexity) درباره پیشزمینه درگیری خاورمیانه اطلاعات میخواهید: میلیونها نفر روزانه به چتباتهای هوش مصنوعی بهعنوان منبع اطلاعات اعتماد میکنند. هر هفته تنها ۸۰۰ میلیون نفر در سراسر جهان از «جتجیپیتی» استفاده میکنند. این دستیارهای دیجیتال در حال حاضر برای بسیاری، جایگزین جستوجوی متداول در گوگل شدهاند.
اما بر اساس مطالعه اخیر «اتحادیه پخش اروپا» (EBU) این اعتماد خطرناک است. این کنسرسیوم متشکل از ۶۸ فرستنده خدمات عمومی از ۵۶ کشور، به طور نظاممند قابلیت اطمینان محبوبترین سامانههای هوش مصنوعی را آزمایش کرده است.
نتیجه ترسناک این مطالعه چنین است: «جتجیپیتی»، «کلود»، «گوگل جمینای» (Google Gemini) و سایر چتباتها تا ۴۰ درصد از پاسخهای خود را جعل کرده و آنها را بهعنوان واقعیت ارائه میدهند.
توهمها: هوش مصنوعی قانعکننده دروغ میگوید
چتبات محبوب «جتجیپیتی» مصرانه ادعا میکند که پاپ فرانسیس هنوز زنده است. «مایکروسافت کوپایلوت» (Microsoft Copilot)، که در برنامههای آفیس مانند «وُرد» (Word) و «اِکسل» (Excel) نیز حضور دارد، نمیداند که سوئد عضو ناتو است و «گوگل جیمنای» انتخاب مجدد دونالد ترامپ بهعنوان رئیسجمهور آمریکا را «ممکن» میداند، در حالی که این اتفاق مدتها پیش افتاده است.
پیتر پوش، اقتصاددان از دانشگاه فنی دورتموند، در اینباره هشدار میدهد: «این سامانهها متقاعدکننده بهنظر میرسند، حتی زمانی که مدام چیزهای کاملاً اشتباهی ادعا میکنند.» او میافزاید: «این امر آنها را بهویژه برای کاربران بیتجربه خطرناک میکند، زیرا خطاها اغلب بلافاصله قابل تشخیص نیستند.»
پدیدهای که متخصصان آن را «توهم» (Hallucination) مینامند: هوش مصنوعی اطلاعاتی را از خود درمیآورد که در خود منسجم بهنظر میرسند، اما هیچ مبنای واقعی ندارند. این اتفاق بهویژه در مورد رویدادهای منطقهای، تحولات روز یا زمانی که چندین اطلاعات باید به هم مرتبط شوند، مکرر رخ میدهد.
خطری برای دموکراسی
اما این برای جامعهای که افراد بیشتری اطلاعات خود را از چتباتها میگیرند، به چه معناست؟ پیامدها در حال حاضر نیز ملموس است: اطلاعات نادرست بهسرعت در رسانههای اجتماعی پخش میشوند، زیرا کاربران «واقعیتهای» تولیدشده توسط هوش مصنوعی را بدون بررسی به اشتراک میگذارند. دانشآموزان و دانشجویان اطلاعات ساختگی را در کارهای خود استفاده میکنند. شهروندان ممکن است بر اساس ادعاهای نادرست، تصمیمات انتخاباتی بگیرند.
نکتهای که بهطور خاص فریبنده است این است که بسیاری از کاربران اصلاً نمیدانند که چتباتها میتوانند توهم ایجاد کنند. آنها فرض میکنند که این فنآوری بهصورت عینی و مبتنی بر واقعیت عمل میکند و این تصور غلط و خطرناکی است. سامانههای هوش مصنوعی اگرچه در شرایط استفاده، خود نسبت به خطاهای احتمالی هشدار میدهند، اما چه کسی آنها را میخواند؟
آسیب به روزنامهنگاری معتبر
مشکل دیگر به اعتبار رسانههای معتبر مربوط میشود. چتباتها بهطور منظم ادعا میکنند که اطلاعات ساختگی آنها از رسانههای معتبر نشأت میگیرد، در حالی که این مراکز خبری هرگز در مورد آن گزارش ندادهاند - یا گزارش کاملاً متفاوتی ارائه کردهاند. کاربران، زمانی که هوش مصنوعی از نام آنها برای اطلاعات نادرست سوء استفاده میکند، اعتماد خود را به منابع معتبر از دست میدهند.
مطالعه «اتحادیه پخش اروپا» چتباتها را با صدها پرسش واقعی در مورد رویدادهای تاریخی، یافتههای علمی و خبرهای روز مورد آزمایش قرار داد. بسته به حوزه موضوعی، نرخ خطا بین ۱۵ تا ۴۰ درصد بود. هیچ یک از هوشهای مصنوعی آزمایششده، بدون خطا عمل نکردند.
چرا هوش مصنوعی اشتباه میکند؟
مشکل در خود سیستم است: چتباتها واقعاً نمیفهمند چه میگویند. آنها بر اساس حجم عظیمی از متون، محاسبه میکنند که کدام کلمات به احتمال زیاد با هم مطابقت دارند. آنها نمیتوانند صحت عبارتی که تولید شده است را بررسی کنند. آنها دانش واقعی ندارند، بلکه فقط الگوهای آماری دارند.
شرکتهای فنآوری از این نواقص آگاه هستند و در حال کار بر روی راهحلهایی هستند. آنها پایگاههای داده را ادغام میکنند، منابع را بهبود میبخشند، و سامانهها را آموزش میدهند. میلیاردها دلار برای توسعه هزینه میشود. با این حال، توهمات همچنان مشکل اساسی حلنشده برای این فنآوری باقی ماندهاند.
کاربران چه کاری میتوانند انجام دهند؟
«اتحادیه پخش اروپا» قوانین روشنی را برای کار با چتباتها توصیه میکند: هرگز کورکورانه اعتماد نکنید. همیشه اطلاعات مهم را بررسی کنید. برای خبرها و حقایق، به جای هوش مصنوعی، به رسانههای معتبر تکیه کنید. بهویژه در مورد موضوعات سیاسی، مسائل بهداشتی یا تصمیمات مالی، احتیاط لازم است.
مدرسهها و دانشگاهها باید سواد رسانهای را آموزش دهند: چگونه اطلاعات نادرستِ تولیدشده توسط هوش مصنوعی را تشخیص دهیم؟ کدام منابع قابل اعتماد هستند؟
با این حال، میلیونها نفر مدتهاست که روزانه از این فنآوری استفاده میکنند. تا زمانی که این فنآوری قابل اعتمادتر شود، قانون این است: چتباتها ممکن است برای کارهای خلاقانه یا بهعنوان کمکنویس کاربرد داشته باشند، اما بهعنوان واقعیتسنج یا منبع خبری مناسب نیستند، یا دستکم نباید ۱۰۰ درصد به آنها اعتماد کرد.
کسانی که میخواهند آگاه شوند، نمیتوانند از رسانههای معتبری که در آنها انسانهای ویراستار کار میکنند، منابع را بررسی میکنند و ادعاها و شواهد را ارزیابی میکنند، بگذرند. انقلاب دیجیتال ممکن است بسیاری چیزها را تغییر دهد - اما لزوم تحقیق دقیق همچنان باقی است.




نظرها
نظری وجود ندارد.