ارتباط ناشناخته. ارتباط بدون سانسور. ارتباط برقرار نمی‌شود. سایت اصلی احتمالاً زیر سانسور است. ارتباط با سایت (های) موازی برقرار شد. ارتباط برقرار نمی‌شود. ارتباط اینترنت خود را امتحان کنید. احتمال دارد اینترنت به طور سراسری قطع شده باشد. ادامه مطلب

«هوش مصنوعی از هر سه پاسخ، یکی را جعل می‌کند»

مطالعه‌های جدید «اتحادیه پخش اروپا» (EBU) نشان‌دهنده نرخ بالای خطا در چت‌بات‌های محبوب هوش مصنوعی است. این سامانه‌ها به‌طور منظم اطلاعاتی از خود اختراع می‌کنند و حتی منابع نادرست ارائه می‌دهند.

شما از «جت‌جی‌پی‌تی» (ChatGPT) در مورد نتایج انتخابات می‌پرسید، از «کلود» (Claude) می‌خواهید خبرها را خلاصه کند یا از « پرپلکسیتی» (Perplexity) درباره پیش‌زمینه درگیری خاورمیانه اطلاعات می‌خواهید: میلیون‌ها نفر روزانه به چت‌بات‌های هوش مصنوعی به‌عنوان منبع اطلاعات اعتماد می‌کنند. هر هفته تنها ۸۰۰ میلیون نفر در سراسر جهان از «جت‌جی‌پی‌تی» استفاده می‌کنند. این دستیارهای دیجیتال در حال حاضر برای بسیاری، جایگزین جست‌وجوی متداول در گوگل شده‌اند.

اما بر اساس مطالعه اخیر «اتحادیه پخش اروپا» (EBU) این اعتماد خطرناک است. این کنسرسیوم متشکل از ۶۸ فرستنده خدمات عمومی از ۵۶ کشور، به طور نظام‌مند قابلیت اطمینان محبوب‌ترین سامانه‌های هوش مصنوعی را آزمایش کرده است.

نتیجه ترسناک این مطالعه چنین است: «جت‌جی‌پی‌تی»، «کلود»، «گوگل جمینای» (Google Gemini) و سایر چت‌بات‌ها تا ۴۰ درصد از پاسخ‌های خود را جعل کرده و آن‌ها را به‌عنوان واقعیت ارائه می‌دهند.

توهم‌ها: هوش مصنوعی قانع‌کننده دروغ می‌گوید

چت‌بات محبوب «جت‌جی‌پی‌تی» مصرانه ادعا می‌کند که پاپ فرانسیس هنوز زنده است. «مایکروسافت کوپایلوت» (Microsoft Copilot)، که در برنامه‌های آفیس مانند «وُرد» (Word) و «اِکسل» (Excel) نیز حضور دارد، نمی‌داند که سوئد عضو ناتو است و «گوگل جیمنای» انتخاب مجدد دونالد ترامپ به‌عنوان رئیس‌جمهور آمریکا را «ممکن» می‌داند، در حالی که این اتفاق مدت‌ها پیش افتاده است.

پیتر پوش، اقتصاددان از دانشگاه فنی دورتموند، در این‌باره هشدار می‌دهد: «این سامانه‌ها متقاعدکننده به‌نظر می‌رسند، حتی زمانی که مدام چیزهای کاملاً اشتباهی ادعا می‌کنند.» او می‌افزاید: «این امر آن‌ها را به‌ویژه برای کاربران بی‌تجربه خطرناک می‌کند، زیرا خطاها اغلب بلافاصله قابل تشخیص نیستند.»

پدیده‌ای که متخصصان آن را «توهم» (Hallucination) می‌نامند: هوش مصنوعی اطلاعاتی را از خود درمی‌آورد که در خود منسجم به‌نظر می‌رسند، اما هیچ مبنای واقعی ندارند. این اتفاق به‌ویژه در مورد رویدادهای منطقه‌ای، تحولات روز یا زمانی که چندین اطلاعات باید به هم مرتبط شوند، مکرر رخ می‌دهد.

خطری برای دموکراسی

اما این برای جامعه‌ای که افراد بیشتری اطلاعات خود را از چت‌بات‌ها می‌گیرند، به چه معناست؟ پیامدها در حال حاضر نیز ملموس است: اطلاعات نادرست به‌سرعت در رسانه‌های اجتماعی پخش می‌شوند، زیرا کاربران «واقعیت‌های» تولیدشده توسط هوش مصنوعی را بدون بررسی به اشتراک می‌گذارند. دانش‌آموزان و دانشجویان اطلاعات ساختگی را در کارهای خود استفاده می‌کنند. شهروندان ممکن است بر اساس ادعاهای نادرست، تصمیمات انتخاباتی بگیرند.

نکته‌ای که به‌طور خاص فریبنده است این است که بسیاری از کاربران اصلاً نمی‌دانند که چت‌بات‌ها می‌توانند توهم ایجاد کنند. آن‌ها فرض می‌کنند که این فن‌آوری به‌صورت عینی و مبتنی بر واقعیت عمل می‌کند و این تصور غلط و خطرناکی است. سامانه‌های هوش مصنوعی اگرچه در شرایط استفاده، خود نسبت به خطاهای احتمالی هشدار می‌دهند، اما چه کسی آن‌ها را می‌خواند؟

آسیب به روزنامه‌نگاری معتبر

مشکل دیگر به اعتبار رسانه‌های معتبر مربوط می‌شود. چت‌بات‌ها به‌طور منظم ادعا می‌کنند که اطلاعات ساختگی آن‌ها از رسانه‌های معتبر نشأت می‌گیرد، در حالی که این مراکز خبری هرگز در مورد آن گزارش نداده‌اند - یا گزارش کاملاً متفاوتی ارائه کرده‌اند. کاربران، زمانی که هوش مصنوعی از نام آن‌ها برای اطلاعات نادرست سوء استفاده می‌کند، اعتماد خود را به منابع معتبر از دست می‌دهند.

مطالعه «اتحادیه پخش اروپا» چت‌بات‌ها را با صدها پرسش واقعی در مورد رویدادهای تاریخی، یافته‌های علمی و خبرهای روز مورد آزمایش قرار داد. بسته به حوزه موضوعی، نرخ خطا بین ۱۵ تا ۴۰ درصد بود. هیچ یک از هوش‌های مصنوعی آزمایش‌شده، بدون خطا عمل نکردند.

چرا هوش مصنوعی اشتباه می‌کند؟

مشکل در خود سیستم است: چت‌بات‌ها واقعاً نمی‌فهمند چه می‌گویند. آن‌ها بر اساس حجم عظیمی از متون، محاسبه می‌کنند که کدام کلمات به احتمال زیاد با هم مطابقت دارند. آن‌ها نمی‌توانند صحت عبارتی که تولید شده است را بررسی کنند. آن‌ها دانش واقعی ندارند، بلکه فقط الگوهای آماری دارند.

شرکت‌های فن‌آوری از این نواقص آگاه هستند و در حال کار بر روی راه‌حل‌هایی هستند. آن‌ها پایگاه‌های داده را ادغام می‌کنند، منابع‌ را بهبود می‌بخشند، و سامانه‌ها را آموزش می‌دهند. میلیاردها دلار برای توسعه هزینه می‌شود. با این حال، توهمات همچنان مشکل اساسی حل‌نشده برای این فن‌آوری باقی مانده‌اند.

کاربران چه کاری می‌توانند انجام دهند؟

«اتحادیه پخش اروپا» قوانین روشنی را برای کار با چت‌بات‌ها توصیه می‌کند: هرگز کورکورانه اعتماد نکنید. همیشه اطلاعات مهم را بررسی کنید. برای خبرها و حقایق، به جای هوش مصنوعی، به رسانه‌های معتبر تکیه کنید. به‌ویژه در مورد موضوعات سیاسی، مسائل بهداشتی یا تصمیمات مالی، احتیاط لازم است.

مدرسه‌ها و دانشگاه‌ها باید سواد رسانه‌ای را آموزش دهند: چگونه اطلاعات نادرستِ تولیدشده توسط هوش مصنوعی را تشخیص دهیم؟ کدام منابع قابل اعتماد هستند؟

با این حال، میلیون‌ها نفر مدت‌هاست که روزانه از این فن‌آوری استفاده می‌کنند. تا زمانی که این فن‌آوری قابل اعتمادتر شود، قانون این است: چت‌بات‌ها ممکن است برای کارهای خلاقانه یا به‌عنوان کمک‌نویس کاربرد داشته باشند، اما به‌عنوان واقعیت‌سنج یا منبع خبری مناسب نیستند، یا دست‌کم نباید ۱۰۰ درصد به آن‌ها اعتماد کرد.

کسانی که می‌خواهند آگاه شوند، نمی‌توانند از رسانه‌های معتبری که در آن‌ها انسان‌های ویراستار کار می‌کنند، منابع را بررسی می‌کنند و ادعاها و شواهد را ارزیابی می‌کنند، بگذرند. انقلاب دیجیتال ممکن است بسیاری چیزها را تغییر دهد - اما لزوم تحقیق دقیق همچنان باقی است.

بیشتر بخوانید:

این مطلب را پسندیدید؟ کمک مالی شما به ما این امکان را خواهد داد که از این نوع مطالب بیشتر منتشر کنیم.

آیا مایل هستید ما را در تحقیق و نوشتن تعداد بیشتری از این‌گونه مطالب یاری کنید؟

.در حال حاضر امکان دریافت کمک مخاطبان ساکن ایران وجود ندارد

توضیح بیشتر در مورد اینکه چطور از ما حمایت کنید

نظر بدهید

در پرکردن فرم خطایی صورت گرفته

نظرها

نظری وجود ندارد.