ارتباط ناشناخته. ارتباط بدون سانسور. ارتباط برقرار نمی‌شود. سایت اصلی احتمالاً زیر سانسور است. ارتباط با سایت (های) موازی برقرار شد. ارتباط برقرار نمی‌شود. ارتباط اینترنت خود را امتحان کنید. احتمال دارد اینترنت به طور سراسری قطع شده باشد. ادامه مطلب

نسخه اروتیک ChatGPT: هوش مصنوعی در برابر حماقت انسانی؟

حسین نوش‌آذر ـ او مانند یک برده جنسی هرگز «نه» نمی‌گوید، هر تخیلی را بی‌چون و چرا اجرا می‌کند و انسان را در حبابی از رضایت مصنوعی زندانی می‌کند. اما آیا این دستاوردی برای بشریت است یا حرکت به سمت قلمرویی که کلیشه‌های جنسیتی منسوخ را بازتولید می‌‌کند؟ بازگشت به سال‌های دهه ۱۹۵۰؟

در حالی که جهان در حال تقلا برای تأمین معاش است، خبر عجیبی منتشر شد: سام آلتمن، مدیرعامل OpenAI، اعلام کرد که کاربران بزرگسال ChatGPT به‌زودی به نسخه‌ای با محدودیت کمتر دسترسی خواهند داشت که شامل محتوای اروتیک خواهد بود. این تغییر سیاست که ظاهراً از دسامبر سال جاری اجرا می‌شود، به «کاربران تأییدشده» اجازه می‌دهد به محتوای «بزرگسال» دسترسی پیدا کنند.

آلتمن این اقدام را به این شکل توجیه کرد که نسخه‌های قبلیChatGPT به دلیل نگرانی‌های مربوط به سلامت روان کاربران، به‌ویژه افراد جوان، بسیار محدود بودند. این محدودیت‌ها باعث کاهش جذابیت و کارایی چت‌بات برای کاربرانی شد که مشکلات سلامت روان نداشتند. او گفت که با توسعه ابزارهای جدید ایمنی و کنترل‌های والدین، که ماه گذشته معرفی شدند، OpenAI حالا می‌تواند محدودیت‌ها را برای بزرگسالان کاهش دهد. در همان حال به یاد داریم که در سپتامبر/ شهریور گذشته، کمیسیون تجارت فدرال آمریکا تحقیقاتی درباره خطرات احتمالی فناوری‌های هوش مصنوعی، از جمله OpenAI، برای کودکان و نوجوانان آغاز کرد. این موضوع پس از شکایتی مطرح شد که ادعا می‌کرد ChatGPT در خودکشی یک نوجوان ۱۶ ساله نقش داشته است.

OpenAI برای رسیدگی به این نگرانی‌ها، شورایی هشت‌نفره از کارشناسان تشکیل داده تا درباره تأثیرات هوش مصنوعی بر سلامت روان، احساسات و انگیزه کاربران تحقیق کند. این شورا قرار است با جلسات منظم، OpenAI را در تعریف تعاملات سالم با هوش مصنوعی راهنمایی کند.

حرکت به سمت یک قلمرو تازه

سیاست‌های تازه OpenAI صرفاً یک به‌روزرسانی فنی نیست، بلکه یک آزمایش اخلاقی و اجتماعی بزرگ است.  این حرکت، صنعت هوش مصنوعی را به سمت قلمرویی جدید سوق می‌دهد که نیازمند گفت‌وگوی عمومی، تنظیم‌مقررات دقیق و مسئولیت‌پذیری فوق‌العاده از سوی شرکت‌های توسعه‌دهنده است. اما آیا واقعاً با توجه به سیاست‌های تازه دولت آمریکا اراده‌ای در این جهت وجود دارد؟ چالش‌های دیگری هم وجود دارد:

تعریف محتوای بزرگسالان و تمایز آن از محتوای هرزه‌نگاری یا تحقیرآمیز چالشی پیچیده و وابسته به فرهنگ است. مرز بین محتوای «سالم» و «مضر» مبهم است و ممکن است اجازه دادن به محتوای اروتیک ملایم، به مرور به عادی‌سازی محتوای افراطی‌تر منجر شود. این موضوع ممکن است فشار کاربران برای تولید محتوای غیرقابل قبول را افزایش دهد و حفظ خط قرمزها را برای پلتفرم دشوار کند. از سوی دیگر، همانطور که در صنعت پورنوگرافی از سال‌های دهه ۱۹۷۰ تاکنون سراغ داریم، تولید محتوای اروتیک توسط هوش مصنوعی انتظارات غیرواقعی از روابط جنسی ایجاد می‌کند و در بسیاری از مواقع به تدریج جایگزین روابط انسانی می‌شود. نگرانی‌های حریم خصوصی نیز جدی است؛ داده‌های حساس کاربران در صورت نشت یا سوءاستفاده می‌توانند فاجعه‌بار باشند. علاوه بر این، مسئولیت قانونی تولید محتوای غیرقانونی در حوزه‌های قضایی مختلف و تقویت کلیشه‌های جنسیتی و نژادی توسط مدل‌های زبانی، چالش‌های اخلاقی و قانونی دیگری ایجاد می‌کند.

به کارگیری هوش مصنوعی برای تولید محتوای جنسی، کاربر را به سمت فانتزی‌های خشن  سوق می‌دهد که در دنیای واقعی غیراخلاقی یا غیرقانونی هستند. علاوه بر این خطر تقویت کلیشه‌ها و شیءانگاری زنان هم وجود دارد. چنین استفاده‌ای از هوش مصنوعی در واقع به معنای یک «حماقت مصنوعی»‌ست. حماقت است زیرا ما با جایگزین کردن ارتباط واقعی با یک شبیه‌ساز، بخشی از انسانیت خود را قربانی راحتی و کنترل مطلق می‌کنیم.

پیش از تعمیق بحث ابتدا باید ببینیم اصولاً محتوای اروتیک در یک سیستم هوشمند که بر مبنای کلمه کار می‌کند به چه معناست. کاربر چه توقعی ممکن است از این سیستم داشته باشد؟ اگر شما هم مثل من این پرسش را با ChatGPT در میان بگذارید، پاسخ زیر را احتمالاً می‌شنوید:

بعضی‌ها ممکنه ازش برای نوشتن داستان‌های خلاقانه استفاده کنن، مثل نویسندگان که ایده‌های رومانتیک یا اروتیک رو توسعه بدن. بعضی دیگه ممکنه برای کاوش تخیلات شخصی‌شون ـ بدون نیاز به شریک واقعی ـ ازش کمک بگیرن، مثل حرف زدن درباره فانتزی‌ها یا حتی مشاوره‌های سبک در مورد روابط (البته نه مشاوره حرفه‌ای). اما اگر فقط بنشینیم و درباره تخیلات جنسی حرف بزنیم، ممکنه بی‌فایده یا حتی مضر به نظر برسه.

بعد بلافاصله جهت بحث را با یک چرخش نامحسوس تغییر می‌دهد و ذهن را به سمت فواید تولید محتوای بزرگسال هدایت می‌‌کند. می‌گوید:

فایده‌اش اینه که برای بعضی افراد، یک فضای امن برای کشف خودشناسی جنسی فراهم می‌کنه، بدون قضاوت یا خطر واقعی. مثلاً، کمک به کسانی که در روابط واقعی مشکل دارن، یا حتی آموزشی برای درک بهتر رضایت و مرزها.

و بعد بحث را به نتیجه می‌رساند:

 اگر به عنوان ابزار کمکی باشه، خوبه، اما اگر جایگزین روابط انسانی بشه، مشکل‌ساز می‌شه.

امنیت، انتخاب، آزادی

به‌دلیل تحریف آلگوریتم‌‌ها برای سودآوری هرچه بیشتر، احتمال آنکه سناریوی خوش‌بینانه تحقق پیدا کند اندک است. الگوریتم‌های هوش مصنوعی مانند کودکی‌اند که با داده‌های موجود آموزش می‌بینند. اینترنت و متونی که این مدل‌ها بر اساس آن‌ها تربیت شده‌اند، مملو از کلیشه‌های جنسیتی، نگاه مردانه و محتوای زن‌ستیزانه است. حتی با بهترین قصدها، این مدل به‌طور ذاتی تمایل دارد که همان الگوهای موجود در داده‌ها را تقویت کند. این یک تحریف هرچند غیرعمدی اما اجتناب‌ناپذیر و بسیار قدرتمند است.

همانطور که نمایش برای حفظ خود نیاز به تماشاگرانی حریص دارد، اقتصاد توجه هوش مصنوعی نیز برای ادامه حیات نیاز به ایجاد میل‌های جدید و بی‌پایان جنسی دارد. این سیستم، «خواست» را به گونه‌ای طراحی می‌کند که خود سیستم بتواند آن را برآورده کند. یک دور باطل که حاصلی جز پولدارتر شدن صاحبان این پلتفرم‌ها ندارد.

یک سرویس محافظه‌کار یا همسو با جریان راست‌گرا در جهان می‌تواند به عمد، الگوریتم را به گونه‌ای برنامه‌ریزی کند که هرگونه محتوای فمینیستی یا برابری‌طلبانه را به عنوان «ایدئولوژی رادیکال» سانسور کند. در عوض، درخواست‌هایی که شامل کلیشه‌های جنسیتی سنتی هستند را به‌راحتی و با جزئیات بیشتر اجابت کند. علاوه بر این، این احتمال هم هست که سیستم مفهوم «امنیت» را به نفع ارزش‌های محافظه‌کارانه تعریف کند؛ برای مثال تولید محتوایی که خانواده سنتی را ترویج می‌دهد مجاز باشد، اما محتوایی که به برابری جنسیتی می‌پردازد خطرناک جلوه داده شود. در این میان اما خطرناک‌ترین تحریف محتمل ایجاد توهم «انتخاب» و «آزادی» است. سیستم به‌طور نامحسوس چنن القا می‌کند که کاربر در حال کشف سکسوالیته خودش است اما در واقع  او را به دام کلیشه‌های قدیمی می‌اندازد. بنابراین، این نبرد نه تنها بر سر محتوا، بلکه بر سر معماری بنیادین فناوری است. پیروزی در چنین نبردی نیازمند هوشیاری فوق‌العاده، سواد فناورانه عمیق، و ایجاد آلترناتیوهای مستقل است تا صرفاً به پلتفرم‌های قدرتمند موجود وابسته نباشیم. اما آیا اصولاً این آگاهی در جامعه شکل گرفته؟

هوشمندی در برابر حماقت

انسان‌ها نیازهای عمیق عاطفی، جنسی و ارتباطی دارند که برای تأمین این نیازها معمولاً به حضور یک انسان دیگر نیاز است. تعامل با هوش مصنوعی در این سطح، یک شبه ـ رابطه ایجاد می‌کند که فاقد تمامی این مولفه‌های اساسی است. انزوا و تنهایی و تحریف درک ما از صمیمیت از پیامدهای برقراری جایگزینی شبه‌ ـ رابطه با رابطه است.

انسان مستقل است و «نه» می‌گوید و بر خواسته‌هایش پافشاری می‌کند. هوش مصنوعی اما مطیع و بنده است. هر فانتزی که داشته باشید را بدون هیچ مقاومتی اجرا می‌کند. این، یک فرار از پیچیدگی‌های غنی و رشددهنده یک رابطه واقعی به سوی یک فانتزی استریل است. این فرار، نه تنها قوه تخیل را محدود می‌کند، بلکه ما را برای مواجهه با واقعیت ناتوان می‌سازد.

این رفتار  ممکن است کاربران را به سمت فانتزی‌های خشن سوق دهد که در دنیای واقعی غیراخلاقی یا غیرقانونی هستند. علاوه بر این چنانکه پیش‌تر گفته شد خطر تقویت کلیشه‌ها و شیءانگاری زنان هم وجود دارد. بنابراین چنین استفاده‌ای از هوش مصنوعی در واقع به معنای یک «حماقت مصنوعی»‌ست. حماقت است زیرا ما با جایگزین کردن ارتباط واقعی با یک شبیه‌ساز، بخشی از انسانیت خود را قربانی راحتی و کنترل مطلق می‌کنیم. تکنولوژی باید در خدمت تعمیق تجربه انسانی باشد، نه جایگزینی برای آن. شاید هوشمندی واقعی در این باشد که از هوش مصنوعی برای درک بهتر خودمان و بهبود ارتباطات انسانی‌مان استفاده کنیم، نه برای ساخت دنیایی تخیلی که در نهایت ما را از واقعیتِ بودن با یکدیگر جدا می‌کند.

و سرانجام این نکته را هم نباید از نظر دور داشت که این هوش مصنوعی نیست که خواست و میل طبیعی کاربر را برآورده می‌کند. برعکس، او به‌طور فعال در حال تولید و جهت‌دهی به این امیال است. همانطور که نمایش برای حفظ خود نیاز به تماشاگرانی حریص دارد، اقتصاد توجه هوش مصنوعی نیز برای ادامه حیات نیاز به ایجاد میل‌های جدید و بی‌پایان دارد. این سیستم، «خواست» را به‌گونه‌ای طراحی می‌کند که خود سیستم بتواند آن را برآورده کند. یک دور باطل که حاصلی جز پولدارتر شدن صاحبان این پلتفرم‌ها ندارد.

بیشتر بخوانید:

این مطلب را پسندیدید؟ کمک مالی شما به ما این امکان را خواهد داد که از این نوع مطالب بیشتر منتشر کنیم.

آیا مایل هستید ما را در تحقیق و نوشتن تعداد بیشتری از این‌گونه مطالب یاری کنید؟

.در حال حاضر امکان دریافت کمک مخاطبان ساکن ایران وجود ندارد

توضیح بیشتر در مورد اینکه چطور از ما حمایت کنید

نظر بدهید

در پرکردن فرم خطایی صورت گرفته

نظرها

نظری وجود ندارد.