نسخه اروتیک ChatGPT: هوش مصنوعی در برابر حماقت انسانی؟
حسین نوشآذر ـ او مانند یک برده جنسی هرگز «نه» نمیگوید، هر تخیلی را بیچون و چرا اجرا میکند و انسان را در حبابی از رضایت مصنوعی زندانی میکند. اما آیا این دستاوردی برای بشریت است یا حرکت به سمت قلمرویی که کلیشههای جنسیتی منسوخ را بازتولید میکند؟ بازگشت به سالهای دهه ۱۹۵۰؟

هوش مصنوعی و روانشناسی ـ تصویر از شاتراستاک
در حالی که جهان در حال تقلا برای تأمین معاش است، خبر عجیبی منتشر شد: سام آلتمن، مدیرعامل OpenAI، اعلام کرد که کاربران بزرگسال ChatGPT بهزودی به نسخهای با محدودیت کمتر دسترسی خواهند داشت که شامل محتوای اروتیک خواهد بود. این تغییر سیاست که ظاهراً از دسامبر سال جاری اجرا میشود، به «کاربران تأییدشده» اجازه میدهد به محتوای «بزرگسال» دسترسی پیدا کنند.
آلتمن این اقدام را به این شکل توجیه کرد که نسخههای قبلیChatGPT به دلیل نگرانیهای مربوط به سلامت روان کاربران، بهویژه افراد جوان، بسیار محدود بودند. این محدودیتها باعث کاهش جذابیت و کارایی چتبات برای کاربرانی شد که مشکلات سلامت روان نداشتند. او گفت که با توسعه ابزارهای جدید ایمنی و کنترلهای والدین، که ماه گذشته معرفی شدند، OpenAI حالا میتواند محدودیتها را برای بزرگسالان کاهش دهد. در همان حال به یاد داریم که در سپتامبر/ شهریور گذشته، کمیسیون تجارت فدرال آمریکا تحقیقاتی درباره خطرات احتمالی فناوریهای هوش مصنوعی، از جمله OpenAI، برای کودکان و نوجوانان آغاز کرد. این موضوع پس از شکایتی مطرح شد که ادعا میکرد ChatGPT در خودکشی یک نوجوان ۱۶ ساله نقش داشته است.
OpenAI برای رسیدگی به این نگرانیها، شورایی هشتنفره از کارشناسان تشکیل داده تا درباره تأثیرات هوش مصنوعی بر سلامت روان، احساسات و انگیزه کاربران تحقیق کند. این شورا قرار است با جلسات منظم، OpenAI را در تعریف تعاملات سالم با هوش مصنوعی راهنمایی کند.
حرکت به سمت یک قلمرو تازه
سیاستهای تازه OpenAI صرفاً یک بهروزرسانی فنی نیست، بلکه یک آزمایش اخلاقی و اجتماعی بزرگ است. این حرکت، صنعت هوش مصنوعی را به سمت قلمرویی جدید سوق میدهد که نیازمند گفتوگوی عمومی، تنظیممقررات دقیق و مسئولیتپذیری فوقالعاده از سوی شرکتهای توسعهدهنده است. اما آیا واقعاً با توجه به سیاستهای تازه دولت آمریکا ارادهای در این جهت وجود دارد؟ چالشهای دیگری هم وجود دارد:
تعریف محتوای بزرگسالان و تمایز آن از محتوای هرزهنگاری یا تحقیرآمیز چالشی پیچیده و وابسته به فرهنگ است. مرز بین محتوای «سالم» و «مضر» مبهم است و ممکن است اجازه دادن به محتوای اروتیک ملایم، به مرور به عادیسازی محتوای افراطیتر منجر شود. این موضوع ممکن است فشار کاربران برای تولید محتوای غیرقابل قبول را افزایش دهد و حفظ خط قرمزها را برای پلتفرم دشوار کند. از سوی دیگر، همانطور که در صنعت پورنوگرافی از سالهای دهه ۱۹۷۰ تاکنون سراغ داریم، تولید محتوای اروتیک توسط هوش مصنوعی انتظارات غیرواقعی از روابط جنسی ایجاد میکند و در بسیاری از مواقع به تدریج جایگزین روابط انسانی میشود. نگرانیهای حریم خصوصی نیز جدی است؛ دادههای حساس کاربران در صورت نشت یا سوءاستفاده میتوانند فاجعهبار باشند. علاوه بر این، مسئولیت قانونی تولید محتوای غیرقانونی در حوزههای قضایی مختلف و تقویت کلیشههای جنسیتی و نژادی توسط مدلهای زبانی، چالشهای اخلاقی و قانونی دیگری ایجاد میکند.
به کارگیری هوش مصنوعی برای تولید محتوای جنسی، کاربر را به سمت فانتزیهای خشن سوق میدهد که در دنیای واقعی غیراخلاقی یا غیرقانونی هستند. علاوه بر این خطر تقویت کلیشهها و شیءانگاری زنان هم وجود دارد. چنین استفادهای از هوش مصنوعی در واقع به معنای یک «حماقت مصنوعی»ست. حماقت است زیرا ما با جایگزین کردن ارتباط واقعی با یک شبیهساز، بخشی از انسانیت خود را قربانی راحتی و کنترل مطلق میکنیم.
پیش از تعمیق بحث ابتدا باید ببینیم اصولاً محتوای اروتیک در یک سیستم هوشمند که بر مبنای کلمه کار میکند به چه معناست. کاربر چه توقعی ممکن است از این سیستم داشته باشد؟ اگر شما هم مثل من این پرسش را با ChatGPT در میان بگذارید، پاسخ زیر را احتمالاً میشنوید:
بعضیها ممکنه ازش برای نوشتن داستانهای خلاقانه استفاده کنن، مثل نویسندگان که ایدههای رومانتیک یا اروتیک رو توسعه بدن. بعضی دیگه ممکنه برای کاوش تخیلات شخصیشون ـ بدون نیاز به شریک واقعی ـ ازش کمک بگیرن، مثل حرف زدن درباره فانتزیها یا حتی مشاورههای سبک در مورد روابط (البته نه مشاوره حرفهای). اما اگر فقط بنشینیم و درباره تخیلات جنسی حرف بزنیم، ممکنه بیفایده یا حتی مضر به نظر برسه.
بعد بلافاصله جهت بحث را با یک چرخش نامحسوس تغییر میدهد و ذهن را به سمت فواید تولید محتوای بزرگسال هدایت میکند. میگوید:
فایدهاش اینه که برای بعضی افراد، یک فضای امن برای کشف خودشناسی جنسی فراهم میکنه، بدون قضاوت یا خطر واقعی. مثلاً، کمک به کسانی که در روابط واقعی مشکل دارن، یا حتی آموزشی برای درک بهتر رضایت و مرزها.
و بعد بحث را به نتیجه میرساند:
اگر به عنوان ابزار کمکی باشه، خوبه، اما اگر جایگزین روابط انسانی بشه، مشکلساز میشه.
امنیت، انتخاب، آزادی
بهدلیل تحریف آلگوریتمها برای سودآوری هرچه بیشتر، احتمال آنکه سناریوی خوشبینانه تحقق پیدا کند اندک است. الگوریتمهای هوش مصنوعی مانند کودکیاند که با دادههای موجود آموزش میبینند. اینترنت و متونی که این مدلها بر اساس آنها تربیت شدهاند، مملو از کلیشههای جنسیتی، نگاه مردانه و محتوای زنستیزانه است. حتی با بهترین قصدها، این مدل بهطور ذاتی تمایل دارد که همان الگوهای موجود در دادهها را تقویت کند. این یک تحریف هرچند غیرعمدی اما اجتنابناپذیر و بسیار قدرتمند است.
همانطور که نمایش برای حفظ خود نیاز به تماشاگرانی حریص دارد، اقتصاد توجه هوش مصنوعی نیز برای ادامه حیات نیاز به ایجاد میلهای جدید و بیپایان جنسی دارد. این سیستم، «خواست» را به گونهای طراحی میکند که خود سیستم بتواند آن را برآورده کند. یک دور باطل که حاصلی جز پولدارتر شدن صاحبان این پلتفرمها ندارد.
یک سرویس محافظهکار یا همسو با جریان راستگرا در جهان میتواند به عمد، الگوریتم را به گونهای برنامهریزی کند که هرگونه محتوای فمینیستی یا برابریطلبانه را به عنوان «ایدئولوژی رادیکال» سانسور کند. در عوض، درخواستهایی که شامل کلیشههای جنسیتی سنتی هستند را بهراحتی و با جزئیات بیشتر اجابت کند. علاوه بر این، این احتمال هم هست که سیستم مفهوم «امنیت» را به نفع ارزشهای محافظهکارانه تعریف کند؛ برای مثال تولید محتوایی که خانواده سنتی را ترویج میدهد مجاز باشد، اما محتوایی که به برابری جنسیتی میپردازد خطرناک جلوه داده شود. در این میان اما خطرناکترین تحریف محتمل ایجاد توهم «انتخاب» و «آزادی» است. سیستم بهطور نامحسوس چنن القا میکند که کاربر در حال کشف سکسوالیته خودش است اما در واقع او را به دام کلیشههای قدیمی میاندازد. بنابراین، این نبرد نه تنها بر سر محتوا، بلکه بر سر معماری بنیادین فناوری است. پیروزی در چنین نبردی نیازمند هوشیاری فوقالعاده، سواد فناورانه عمیق، و ایجاد آلترناتیوهای مستقل است تا صرفاً به پلتفرمهای قدرتمند موجود وابسته نباشیم. اما آیا اصولاً این آگاهی در جامعه شکل گرفته؟
هوشمندی در برابر حماقت
انسانها نیازهای عمیق عاطفی، جنسی و ارتباطی دارند که برای تأمین این نیازها معمولاً به حضور یک انسان دیگر نیاز است. تعامل با هوش مصنوعی در این سطح، یک شبه ـ رابطه ایجاد میکند که فاقد تمامی این مولفههای اساسی است. انزوا و تنهایی و تحریف درک ما از صمیمیت از پیامدهای برقراری جایگزینی شبه ـ رابطه با رابطه است.
انسان مستقل است و «نه» میگوید و بر خواستههایش پافشاری میکند. هوش مصنوعی اما مطیع و بنده است. هر فانتزی که داشته باشید را بدون هیچ مقاومتی اجرا میکند. این، یک فرار از پیچیدگیهای غنی و رشددهنده یک رابطه واقعی به سوی یک فانتزی استریل است. این فرار، نه تنها قوه تخیل را محدود میکند، بلکه ما را برای مواجهه با واقعیت ناتوان میسازد.
این رفتار ممکن است کاربران را به سمت فانتزیهای خشن سوق دهد که در دنیای واقعی غیراخلاقی یا غیرقانونی هستند. علاوه بر این چنانکه پیشتر گفته شد خطر تقویت کلیشهها و شیءانگاری زنان هم وجود دارد. بنابراین چنین استفادهای از هوش مصنوعی در واقع به معنای یک «حماقت مصنوعی»ست. حماقت است زیرا ما با جایگزین کردن ارتباط واقعی با یک شبیهساز، بخشی از انسانیت خود را قربانی راحتی و کنترل مطلق میکنیم. تکنولوژی باید در خدمت تعمیق تجربه انسانی باشد، نه جایگزینی برای آن. شاید هوشمندی واقعی در این باشد که از هوش مصنوعی برای درک بهتر خودمان و بهبود ارتباطات انسانیمان استفاده کنیم، نه برای ساخت دنیایی تخیلی که در نهایت ما را از واقعیتِ بودن با یکدیگر جدا میکند.
و سرانجام این نکته را هم نباید از نظر دور داشت که این هوش مصنوعی نیست که خواست و میل طبیعی کاربر را برآورده میکند. برعکس، او بهطور فعال در حال تولید و جهتدهی به این امیال است. همانطور که نمایش برای حفظ خود نیاز به تماشاگرانی حریص دارد، اقتصاد توجه هوش مصنوعی نیز برای ادامه حیات نیاز به ایجاد میلهای جدید و بیپایان دارد. این سیستم، «خواست» را بهگونهای طراحی میکند که خود سیستم بتواند آن را برآورده کند. یک دور باطل که حاصلی جز پولدارتر شدن صاحبان این پلتفرمها ندارد.
نظرها
نظری وجود ندارد.