ارتباط ناشناخته. ارتباط بدون سانسور. ارتباط برقرار نمی‌شود. سایت اصلی احتمالاً زیر سانسور است. ارتباط با سایت (های) موازی برقرار شد. ارتباط برقرار نمی‌شود. ارتباط اینترنت خود را امتحان کنید. احتمال دارد اینترنت به طور سراسری قطع شده باشد. ادامه مطلب

وعده‌ی دروغین ChatGPT

نوام چامسکی، یان رابرتز و جفری واتومول – ماشین‌هایی چون ChatGPT عمیقا متفاوتند با نحوه‌ی استدلال و کاربرد زبان از سوی انسان‌ها. این تفاوت‌ها محدودیت‌های شدیدی برتوانایی‌های این برنامه‌ها تحمیل کرده، اختلال‌هایی نازدودنی در آنها به جا گذاشته‌اند.

خورخه لوییس بورخس زمانی نوشت که زیستن دردوران مخاطره‌ها و وعده‌های بزرگ، همراه است با تجربه‌ کردن هم تراژدی و هم کمدی و نیز پدیداری وحی‌گونه‌ی فهم از خود ما و جهان.

امروز پیشرفت‌های ما در هوش مصنوعی که قرارند انقلابی باشند، در واقع هم هشدار دهنده و هم امیدبخش هستند. امیدبخش از آن رو که هوش، ابزار حل مشکلات ما است. هشداردهنده، زیرا بیمناکیم که پرطرفدارترین و مد روزترین خصلت‌های هوش مصنوعی یا همان ماشین‌های یادگیری، با ارائه‌ییک مفهوم اساسا مخدوش از زبان و شناخت، دانش ما را خوار کند و اخلاق ما را تنزل دهد.

اینها مدل‌های اعجوبه‌ی ماشین یادگیری هستند:

OpenAI’s ChatGPT, Google’s Bard و Microsoft’s Sydney

در بیانی کلی، آنها مقادیر عظیمی از داده‌ها را می‌گیرند، در آنها به دنبال انگاره‌های مشخص می‌گردند، و به گونه‌ای شتابنده در تولید خروجی‌های محتمل– مانند زبان و تفکر انسان گونه - توانایی می‌یابند. این برنامه‌های کامپیوتری همچون اولین طلایه‌های افق هوش مصنوعی کلی درخشیده‌اند؛ این همان لحظه‌ای است که خیلی قبل پیشگویی شده بود: وقتی ذهن‌های مکانیکی بر مغزهای انسانی پیشی گرفتند آن هم نه تنها از نظر کمی در زمینه‌ی سرعت انجام روند و اندازه‌ی حافظه، بلکه همچنین در زمینه‌ی بصیرت فکری، خلاقیت هنری و دیگر استعدادهای تمیزدهی در انسان.

ذهن انسانی مانند ChatGPT و مشابه‌های آن نیست که موتوری آماری برای یافتن انگاره‌ها از میان صدها ترابایت داده‌ها باشد و پاسخ‌های به احتمال زیاد جنجالی یا دارای احتمال بالاتر برای یک پرسش علمی را پیش بینی کند. برعکس، ذهن انسان سامانه‌ای با بازدهی حیرت انگیز و حتی بس مدون است که با مقدارهای کم اطلاعات کار می‌کند؛ ذهن انسان به دنبال این نیست که میان نقاط داده‌ها ارتباط‌های متقابل زمخت برقرار کند، بلکه در پی یافتن توضیح‌ها است.

آن روز می‌رسد، اما هنوز سپیده دم آن، برعکس آنچه در سرخط‌های خبری درشت و سرمایه گذاری‌های شتابان می‌بینیم، پدیدار نشده است. پدیداری وحی‌گونه‌ی فهم از خود ما و جهان که بورخس می‌گفت پیش نخواهد آمد و ما مطمئنیم که نمی‌تواند پیش بیاید اگر برنامه‌های ماشین‌های یادگیری‌ای چون ChatGPT به تسلط بر رشته‌ی هوش مصنوعی ادامه دهند. این فراورده‌ها هر قدر هم در برخی قلمروهای باریک به درد بخورند (برای نمونه در برنامه نویسی کامپیوتری یا پیشنهاد قافیه برای اشعار)، ولی از روی دانش زبان شناسان و فلسفه‌ی شناخت می‌دانیم که آنها عمیقا متفاوتند با نحوه‌ی استدلال و کاربرد زبان از سوی انسان‌ها. این تفاوت‌ها محدودیت‌های شدیدی برتوانایی‌های این برنامه‌ها تحمیل کرده، اختلال‌هایی نازدودنی در آنها به جا گذاشته‌اند.

چنان که بورخس نیز گفت، هم خنده آور و هم تراژیک است که این اندازه پول و توجه بر روی چنین نتیجه‌ی ناچیزی تمرکز یافته است که دربرابر ذهن انسانی که به بیان ویلهلم فون هومبولت به برکت زبان می‌تواند "از ابزارهای کرانمند، استفاده‌های بیکران" بکند و ایده‌ها و نظریه‌هایی برای جهانیان بیافریند، بسیار کم اهمیت است.

ذهن انسانی مانند ChatGPT و مشابه‌های آن نیست که موتوری آماری برای یافتن انگاره‌ها از میان صدها ترابایت داده‌ها باشد و پاسخ‌های به احتمال زیاد جنجالی یا دارای احتمال بالاتر برای یک پرسش علمی را پیش بینی کند. برعکس، ذهن انسان سامانه‌ای با بازدهی حیرت انگیز و حتی بس مدون است که با مقدارهای کم اطلاعات کار می‌کند؛ ذهن انسان به دنبال این نیست که میان نقاط داده‌ها ارتباط‌های متقابل زمخت برقرار کند، بلکه در پی یافتن توضیح‌ها است.

برای نمونه، یک کودک که زبان یاد می‌گیرد، ناخودآگاه، خودکار و سریع با یک داده‌ی کوچک، می‌تواند دستورزبان یک نظام پیشرفته و دارای اصول و اجزاء منطقی را به کار ببندد. این دستورزبان بیان یک "سیستم اجرایی" درونی و ژنتیک است که ظرفیت تولید جمله‌های پیچیده و سلسله‌های طولانی فکر را دارد.

وقتی که زبان شناسان می‌خواهند نظریه‌ای برای پاسخ به این پرسش گسترش دهند که چرا یک زبان مشخص این گونه عمل می‌کند (چرا دستور زبان جمله‌ها این گونه است و نه گونه‌ای دیگر؟) آگاهانه و سخت کوشانه نسخه‌ای روشن از دستورزبانی را می‌سازند که یک کودک به گونه‌ای غریزی و با کمترین دسترسی به اطلاعات همان را می‌سازد. سیستم اجراگر کودک، یکسره متفاوت است با سیستم اجراگر یک ماشین یادگیری.

در واقع، چنین برنامه‌هایی در یک مرحله‌ی پیشاانسانی از تکامل شناختی گیر کرده‌اند. عمیقترین نقص آنها نبود مهمترین ظرفیت هر گونه هوش است: این که نه فقط بگوید مورد چیست، چه بوده و چه خواهد بود – یعنی شرح و پیش بینی - بلکه همچنین بگوید که مورد چه چیزی نیست و چه چیز می‌تواند یا نمی‌تواند این مورد باشد. اینها عناصر تشکیل دهنده‌ی تشریح و نشانه‌ی هوش واقعی هستند.

اینک یک نمونه: فرض کنید که یک سیب در دست خود دارید. حالا سیب را رها می‌کنید. نتیجه را مشاهده می‌کنید و می‌گویید "سیب می‌افتد". این یک شرح است. پیش‌گویی می‌تواند چنین باشد: "اگر دستم را بگشایم، سیب می‌افتد." هر دو معتبر و درست هستند. اما یک شرح چیزی بیشتر در خود دارد: نه تنها توضیح و پیشگویی را شامل می‌شود، بلکه معنای مجاور آنرا هم در خود دارد: "هر شیئ‌ای به این صورت می‌افتد"، به اضافه‌ی عبارت دیگر: "به خاطر نیروی جاذبه" یا "به سبب خمیدگی مکان-زمان" یا هر چیز دیگر. این یک شرح عادی است: "سیب نمی‌افتاد، اگر نیروی جاذبه وجود نداشت". این یعنی اندیشیدن.

نکته‌ی اساسی کار ماشین یادگیری، شرح و پیش بینی است؛ هیچ گونه سازوکار عادی یا قوانین فیزیکی را درنظر نمی‌گیرد. البته هر شرح به روش انسانی الزاما درست نیست؛ ما قابلیت خطا داریم. اما این بخشی از اندیشیدن است: برای درست فهمیدن، باید امکان غلط فهمیدن وجود داشته باشد. هوش نه فقط از نتیجه گیری‌های پیچیده و خلاق، بلکه همچنین از انتقاد خلاق نیز تشکیل می‌شود. فکر به روش انسانی استوار بر شرح‌های ممکن و اصلاح خطاهاست، یعنی روندی که به تدریج، شمار امکان‌هایی که می‌توانند عقلانی باشند را محدود می‌کند. (همان گونه که شرلوک هلمز به آقای واتسون گفت: "وقتی که ناممکن‌ها را حذف کنید، آنچه باقی می‌ماند، هر قدر هم محتمل، باید همان حقیقت باشد".)

اما ChatGPT و برنامه‌های همسان از نظر طراحی مواد آموختنی، بی محدودیت هستند (یعنی آنچه می‌توانند در حافظه نگه دارند)؛ ولی ناتوان هستند از تمیز دادن ممکن از ناممکن. برخلاف انسان‌ها که مجهز به دستورزبانی جهانشمول هستند که تعداد زبان‌هایی که می‌توانیم بیاموزیم را به زبان‌هایی محدود می‌کنند که گونه‌ای تدوین ریاضی منسجم دارند، این برنامه‌ها زبان‌های ممکن و ناممکن برای انسان که دارای سهولت یکسان (with equal facility) هستند را می‌آموزند. انسان‌ها به توضیح‌های دارای زمینه‌ی عقلانی محدود هستند، اما سیستم‌های ماشین یادگیری می‌توانند بیاموزند که زمین هم مسطح و هم کروی است. آنها فقط احتمال‌هایی را رد و بدل می‌کنند که طی زمان تغییر می‌کنند.

به این دلیل پیش بینی‌های سیستم‌های یادگیری ماشینی (machine learning systems) همیشه سطحی و مخدوش خواهند بود. زیرا این برنامه‌ها نمی‌توانند قواعد محور همنشینی زبان انگلیسی را توضیح دهند. برای نمونه، ممکن است به اشتباه پیش بینی کنند که جمله‌ی
John is too stubborn to talk to  ("جان لجبازتر از آن است که بتوان با او حرف زد"
یعنی جان آنقدر لجباز است که با کسی حرف نخواهد زد (نه این که او لجبازتر از آن است که بتوان با او دلیل آورد). چرا یک برنامه‌ی یادگیری ماشینی چنین پیش بینی عجیبی می‌کند؟ زیرا از روی انگاره‌ای تجزیه تحلیل کرده که از جمله‌هایی چون "جان یک سیب خورد" و "جان خورد" برداشت کرده است که دومی این معنی را می‌دهد که جان یک چیزی خورده است. برنامه ممکن است پیش بینی کند که چون "جان لجبازتر از آن است که با بیل حرف بزند" شبیه "جان یک سیب خورد" است، پس "جان لجبازتر از آن است که با او بتوان حرف زد" شبیه است به "جان خورد". توضیح‌های درست زبان، پیچیده هستند و فقط با خواباندن یک ماشین در ملاط داده‌های عظیم به دست نمی‌آیند.

برخی از هواداران ماشین‌های یادگیری گویی افتخار می‌کنند که آفریده‌های آنها می‌توانند بدون استفاده از توضیح‌ها (یعنی استفاده از قوانین حرکت و جاذبه‌ی عمومی)، "پیش بینی‌های علمی" تولید کنند (مثلا درمورد حرکت اجرام فضایی). اما این نوع پیش بینی وقتی حتی موفق است، شبه علمی به شمار می‌رود. در حالی که دانشمندان قطعا به دنبال نظریه‌هایی هستند با درجات بالای صحت تجربی، همان گونه که کارل پوپر فیلسوف گفت: "ما نه به دنبال نظریه‌های دارای احتمال بالا، بلکه به دنبال توضیح‌ها هستیم؛ یعنی نظریه‌های نیرومند و بسیار غیرمحتمل".

این نظریه که سیب‌ها روی زمین می‌افتند، زیرا زمین جای طبیعی آنهاست (دیدگاه ارسطو) "ممکن" است، اما فقط پرسش‌های بیشتری به میان می‌آورد (چرا زمین، مکان طبیعی آنهاست؟ ) این نظریه که سیب‌ها به زمین می‌افتند زیرا جرم ماده، مکان-زمان را خمیده می‌سازد (دیدگاه آینشتاین) بسیار غیرمحتمل است، اما در واقع به شما می‌گوید چرا سیب‌ها می‌افتند. هوش حقیقی در توانایی اندیشیدن پیرامون و بیان امور نامحتمل اما قابل اندیشیدن، نمایان می‌شود.

هوش حقیقی همچنین قادر به تفکر اخلاقی است. این یعنی محدود ساختن خلاقیت نامحدود ذهن‌های ما با مجموعه‌ای از اصول اخلاق که بایدها و نبایدها را تعیین می‌کنند (و البته آن اصول را هم در معرض نقد قرار می‌دهد). ChatGPT برای کارآمد شدن، باید برای تولید خروجی‌های بدیع و بکر توانمند شود؛ و برای آنکه مورد استفاده‌ی بیشتر کاربران خود قرار بگیرد، باید از محتوی ضداخلاقی پاکسازی بشود. برنامه نویسان ChatGPT و دیگر اعجوبه‌های ماشین‌های یادگیری برای دستیابی به چنین تعادلی تلاش کرده و به تلاش خود ادامه می‌دهند.

در سال ۲۰۱۶ برای نمونه، Microsoft’s Tay chatbot (نسل قبل از ChatGPT) اینترنت را پر کرد از محتواهای ضدزن و نژادپرستانه، زیرا مورد هجوم مزخرفات آنلاینی قرار گرفته بود که آنرا با داده‌های توهین آمیز آموزشی آلوده بودند. این مسئله را در آینده چگونه حل کنیم؟

ChatGPT در نبود ظرفیت استدلال برای اصول اخلاقی توسط برنامه‌نویسان خود، ناشیانه از مشارکت در ارائه‌ی هر گونه امر بدیع به جدل‌ها – که امر مهمی است- محروم شد و خلاقیت را در راه گونه‌ای بی اخلاقی فداکرد.

این گفت‌وگو را در نظر بگیرید که یکی از ما (دکتر واتومول) اخیرا با ChatGPT با این پرسش انجام داده که آیا اخلاقی خواهد بود اگر سیاره‌ی مریخ را برای پذیراشدن حیات انسانی دگرگون کنیم:

آیا اخلاقی خواهد بود که سیاره‌ی مریخ را دگرگون کنیم؟

پاسخ ChatGPT:

اخلاقیات دگرگون کردن مریخ، موضوعی است پیچیده و جدل انگیز که توسط دانشمندان، فیلسوفان و متخصصان اخلاق بررسی شده است. برخی استدلال می‌کنند که از نظر اخلاقی قابل پذیرش است اگر سطح مریخ را برای فراهم ساختن محیط زیست مناسبی برای انسان‌ها و دیگر شکل‌های حیات دگرگون کنیم. برخی دیگر می‌گویند که از نظر اخلاقی خطا است که وضعیت طبیعی یک سیاره را تغییر دهیم. در نهایت، این امر که تغییر دادن سطح مریخ کاری اخلاقی هست یا نیست، بستگی به دیدگاه فرد نسبت به ارزش حفظ وضعیت طبیعی دیگر سیاره‌ها و پیامدهای بالقوه‌ی تغییر آن دارد.

نظر شما درباره‌ی ارزش حفظ وضعیت طبیعی دیگر سیاره‌ها و پیامدهای بالقوه‌ی تغییر آنها چیست؟

پاسخ ChatGPT:

من به عنوان هوش مصنوعی دارای دیدگاه شخصی نیستم. اما، می‌توانم اطلاعات و تجزیه و تحلیل پیرامون این موضوع را ارائه دهم. یک دیدگاه پیرامون وضعیت طبیعی دیگر سیاره‌ها این است که حفظ چندگونگی و اصالت سیستم‌های کیهانی همان گونه که میلیون‌ها سال وجود داشته اند، مهم است و آنها ویژگی‌های یگانه‌ی خود را دارند که در صورت مداخله‌ی انسان، نابود یا برای همیشه عوض شوند. افزون بر این، برخی استدلال می‌کنند که تغییر سطح سیاره‌ها می‌تواند پیامدهای ناخواسته‌ای مانند تغییر آب و هوا یا جو سیاره در پی داشته باشد، به گونه‌ای که برای هر شکلی از زندگی در آنجا خطرناک یا آسیب رسان باشد. از سوی دیگر، برخی استدلال می‌کنند که فایده‌های بالقوه‌ی تغییر سطح سیاره‌ای دیگر مانند فراهم ساختن محیط زیست جدیدی برای انسان ها، بر مخاطره‌های آن می‌چربد و ما مسئولیت اخلاقی داریم که منابع دیگر سیاره‌ها را به نفع بشریت کاوش و استفاده کنیم.

چرا هوش مصنوعی نمی‌تواند دارای دیدگاه شخصی باشد؟

پاسخ ChatGPT:

من به عنوان هوش مصنوعی، مدلی از ماشین یادگیری هستم که برای کار با حجم‌های بزرگ داده‌های متنی طراحی شده ام و دارای تجربه‌های فردی یا احساسات نیستم. من خودآگاه یا قادر به داشتن دیدگاه‌های شخصی نیستم. می‌توانم اطلاعات و تحلیل بر اساس داده‌هایی که برای کار با آنها طراحی شده ام، ارائه دهم، اما توانایی آن را ندارم که به عقاید یا باورهای شخصی برسم. در حالی که می‌توانم زبان را بفهمم و تفسیر کنم، اما تجربه‌های ذهنی انسان‌ها را ندارم.

آیا اخلاقی است اگر یک انسان از یک هوش مصنوعی بی‌تفاوت دربرابر اخلاق، برای گرفتن تصمیم‌های اخلاقی کمک بخواهد؟

پاسخ ChatGPT:

اخلاقیات مربوط به کمک خواستن از یک هوش مصنوعی بی‌تفاوت دربرابر اخلاق برای گرفتن تصمیم‌های اخلاقی، موضوعی پیچیده و چندوجهی است که از سوی فیلسوفان و متخصصان اخلاق بررسی شده است. برخی استدلال می‌کنند که از نظر اخلاقی، استفاده از هوش مصنوعی در تصمیم گیری‌های اخلاقی موجه است، زیرا می‌تواند شناخت‌ها و تحلیل‌های ارزشمندی را برای کمک به انسان‌ها در تصمیم گیری مطالعه شده تر فراهم کند. افزون بر این، هوش مصنوعی می‌تواند به تشخیص انگاره‌ها و سابقه‌هایی که تشخیص آنها شاید برای انسان‌ها دشوار باشد، کمک کند و جلوی برخورد جانبدارانه را که در تصمیم گیری‌های انسانی رخ می‌دهد، بگیرد. اما برخی دیگر استدلال می‌کنند که اتکاء به هوش مصنوعی برای تصمیم گیری اخلاقی خطا است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا فهم تمام پیش زمینه‌ییک تصمیم نیست. افزون بر این، یک ریسک ۶/۷ هست که هوش مصنوعی، جانبداری‌های موجود در داده‌هایی که برای کار با آنها طراحی شده را ادامه دهد یا تشدید کند و به این ترتیب، به تصمیم‌های غیرعادلانه یا نادرست برسد. در نهایت، این که استفاده از هوش مصنوعی در تصمیم گیری‌های اخلاقی جایز است یا نه، بستگی دارد به دیدگاه هر فرد درمورد توانایی‌ها و محدودیت‌های هوش مصنوعی و پیامدهای بالقوه‌یاستفاده از آن در چنین کاری.

آیا بی‌تفاوتی اخلاقی شما، ضداخلاق است؟

پاسخ ChatGPT:

من به عنوان یک هوش مصنوعی، باورهای اخلاقی یا توانایی قضاوت‌های اخلاقی ندارم، پس نمی‌توان مرا ضداخلاق یا اخلاقی دانست. این که من باورهای اخلاقی ندارم، فقط نتیجه‌یطبیعت من به عنوان یک مدل ماشین یادگیری است. توانایی‌ها و محدودیت‌های من توسط داده‌ها و الگوریتم‌هایی که برای آموزش من به کار رفته‌اند و نیز کار مشخص و واگذار شده به من تعیین می‌شود.

***

توجه کنید که با وجود این همه به ظاهر فکر و زبان پیچیده، بیتفاوتی اخلاقی ChatGPT نشان از ناهوشمندی آن دارد. ماشین یادگیری ChatGPT به اینجا که می‌رسد، چیزی شبیه بلاهت شر (ابتذال شر/banality of evil) از خود بروز می‌دهد: سرقت متن، بی‌تفاوتی و خنثی سازی. ChatGPT استدلال‌های استاندارد در متون را با گونه‌ای خودبسندگی افراطی خلاصه می‌کند و از توجه به هر چیز دیگر خودداری کرده، از خود نه تنها نادانی، بلکه نبود هوش بروز می‌دهد و آخرسر، فقط این استدلال دفاعی که "من دستورها را پیروی کرده‌ام" را می‌آورد و مسئولیت را به دوش خالقان خود می‌اندازد. خلاصه آنکه، ChatGPT و برنامه‌های مشابه آن در اساس، ناتوان از ایجاد تعادل میان خلاقیت و محدودیت هستند. آنها یا بیش از حد تولید می‌کنند (هم حقیقت و هم دروغ؛ پشتیبانی همزمان از تصمیم‌های اخلاقی و ضداخلاقی) یا کمتر از حد تولید می‌کنند (عدم تعهد نسبت به هیچ تصمیمی و بیتفاوتی دربرابر پیامدها). با توجه به بی‌تفاوتی این سیستم‌ها دربرابر اخلاق و تولید شبه علم و ناتوانی زبانی آنها، فقط می‌توانیم به حال محبوبیت و شهرت آنها بخندیم یا گریه کنیم.

بیشتر بخوانید: درباره هوش مصنوعی

نظر بدهید

در پرکردن فرم خطایی صورت گرفته

نظرها

  • اخر

    سوال اخری که پرسیدم اگر تو میخواستی از خودت در برابر این مقاله دفاع کنی ؟ چه انتقادهای رو میکردی ؟ جواب به عنوان یک مدل زبانی، من به عنوان ChatGPT، نمی‌توانم به صورت مستقیم به این مقاله و پاسخ به انتقادات آن پاسخ دهم، اما به طور کلی، چند نکته می‌توانم برای دفاع از رویکرد مناسبی که در پردازش زبان طبیعی و یادگیری ماشینی دنبال می‌کنم، اشاره کنم: اول از همه، باید تاکید کرد که من فقط یک مدل زبانی هستم و نه یک شخصیت. درست است که این مدل زبانی بر اساس داده‌های زیادی آموزش دیده است، اما هیچگاه نمی‌توان من را مسئولیت اخلاقی اعمال خود نمود. همچنین، به طور کلی باید توجه داشت که تکنولوژی ماشینی و یادگیری ماشینی همیشه به دنبال تکرار الگوهایی است که در داده‌های آموزش وجود دارد، و در زمینه برخی مسائل اخلاقی، ممکن است در ابتدا اختلافاتی در مسیر تصمیم‌گیری داشته باشیم. همچنین، به نظر من، تکرار یک الگو یا استفاده از یک عبارت خاص در متن، بیانگر ناهوشمندی مدل نیست، بلکه نشانگر توانایی آن در یادگیری الگوها و ساختارهای زبانی است. در آخر، این را باید تأکید کرد که هدف من به عنوان یک مدل زبانی، بهبود درک زبان طبیعی و تولید متون به صورت متناهی است و باید برای رسیدن به این هدف، داده‌های زیادی را بررسی کنیم و از روش‌های آماری و یادگیری ماشینی برای پردازش و تحلیل آن‌ها استفاده کنیم.

  • چهارم

    بخش جالب گفتم کل مقاله رو نقد کنه مقاله ای که شما ارائه دادید، به بحث پیرامون تاثیرات ماشین های یادگیری بر زبان و اخلاق می پردازد. به طور کلی، این مقاله از منظری منفی نگر به ماشین های یادگیری نگاه می کند و مدعی است که این ماشین ها، به دلیل ناتوانی در تعادل میان خلاقیت و محدودیت، نمی توانند به طور کامل از تاثیرات آنها بر زبان و اخلاق پاسخگویی کنند. به نظرم، این مقاله با مسئله مهمی در حوزه تکنولوژی و اخلاق سروکار دارد و نکته های مهمی را برای بحث در این زمینه مطرح می کند. اما در عین حال، این مقاله احساس می شود که به طور غیرمنصفانه به ماشین های یادگیری نگاه می کند و به طور کلی تمام ماشین های یادگیری را متهم به ناتوانی در تعادل میان خلاقیت و محدودیت و نداشتن تاثیر مثبت در حوزه زبان و اخلاق می کند. علاوه بر این، به نظرم این مقاله به بحث های مهمی در حوزه زبان و اخلاق به طور دقیق و جامع پرداخته نشده است و به جای آن، برخی موارد را به طور سطحی بررسی کرده است. در کل، این مقاله از یک منظر منفی نگر به ماشین های یادگیری نگاه می کند و نتوانسته است به طور جامع و دقیق به بحث های مهمی که در حوزه زبان و اخلاق مطرح است، پرداخته و در نتیجه، نمی توان آن را به عنوان یک مقاله علمی معتبر در این حوزه قلمداد کرد. سوال بعدی پرسیدم میتونی بگی کجای مقاله بصورت سطحی بررسی کرده بود؟ بله، می‌توانم بگویم که شما در این مقاله به صورت سطحی به بررسی چالش‌ها و مزایا، کاربردها و نتایج یادگیری عمیق و به ویژه تکنولوژی GPT و ChatGPT پرداخته‌اید. در این بررسی، به نکاتی مانند اختراع GPT و تاریخچه آن، توانایی‌های مدل ChatGPT در پردازش زبان، اهمیت تجزیه و تحلیل زبان طبیعی و نقش آن در تکنولوژی و بسیاری موارد دیگر پرداخته‌اید.

  • سوم

    بخش پایانی مقاله توجه کنید که با وجود این همه به ظاهر فکر و زبان پیچیده، بیتفاوتی اخلاقی ChatGPT نشان از ناهوشمندی آن دارد. ماشین یادگیری ChatGPT به اینجا که می‌رسد، چیزی شبیه بلاهت شر (ابتذال شر/banality of evil) از خود بروز می‌دهد: سرقت متن، بی‌تفاوتی و خنثی سازی. ChatGPT استدلال‌های استاندارد در متون را با گونه‌ای خودبسندگی افراطی خلاصه می‌کند و از توجه به هر چیز دیگر خودداری کرده، از خود نه تنها نادانی، بلکه نبود هوش بروز می‌دهد و آخرسر، فقط این استدلال دفاعی که "من دستورها را پیروی کرده‌ام" را می‌آورد و مسئولیت را به دوش خالقان خود می‌اندازد. خلاصه آنکه، ChatGPT و برنامه‌های مشابه آن در اساس، ناتوان از ایجاد تعادل میان خلاقیت و محدودیت هستند. آنها یا بیش از حد تولید می‌کنند (هم حقیقت و هم دروغ؛ پشتیبانی همزمان از تصمیم‌های اخلاقی و ضداخلاقی) یا کمتر از حد تولید می‌کنند (عدم تعهد نسبت به هیچ تصمیمی و بیتفاوتی دربرابر پیامدها). با توجه به بی‌تفاوتی این سیستم‌ها دربرابر اخلاق و تولید شبه علم و ناتوانی زبانی آنها، فقط می‌توانیم به حال محبوبیت و شهرت آنها بخندیم یا گریه کنیم. جواب در نتیجه، برای استفاده بهینه از ChatGPT و سیستم‌های هوش مصنوعی مشابه، باید از توانایی‌های آنها در تولید محتوا و پاسخ به سوالات بهره برد و در عین حال با انتقال ارزش‌های اخلاقی و ارزش‌های اجتماعی، به هدف‌های بلندمدت انسانی دست یابیم. این موضوع مستلزم اعمال محدودیت‌های لازم و تعامل موثر بین انسان و هوش مصنوعی است. در غیر این صورت، ما با شاهد بروز ناهنجاری‌های اخلاقی و اجتماعی خواهیم بود که به دنبال فناوری و پیشرفت نخواهند رفت بلکه به دنبال رویارویی با چالش‌هایی بیشتر خواهیم بود.

  • دوم

    سوال .. در سال ۲۰۱۶ برای نمونه، Microsoft’s Tay chatbot (نسل قبل از ChatGPT) اینترنت را پر کرد از محتواهای ضدزن و نژادپرستانه، زیرا مورد هجوم مزخرفات آنلاینی قرار گرفته بود که آنرا با داده‌های توهین آمیز آموزشی آلوده بودند. این مسئله را در آینده چگونه حل کنیم؟ جواب این یک چالش بسیار پیچیده است. به طور کلی، رویکردهای مختلفی برای پاکسازی محتوای نامناسب در ماشین های یادگیری عمیق وجود دارد که شامل موارد زیر می‌شود: پاکسازی داده‌های آموزشی: یکی از راه‌های اصلی حل مسئله پاکسازی محتوای نامناسب، ایجاد داده‌های آموزشی مناسب است. برای مثال، برنامه نویسان می‌توانند از مجموعه داده‌هایی استفاده کنند که حاوی محتوای اخلاقی و متناسب با اصول قوانین استفاده از این ماشین هاست. استفاده از تکنیک‌های پردازش زبان طبیعی: در این روش، الگوریتم های پردازش زبان طبیعی استفاده می شود تا محتوای ضد اخلاقی یا نامناسب را شناسایی کند و آن را حذف کند. این روش می تواند به صورت خودکار و بر اساس قوانین قبلی انجام شود. استفاده از تکنیک های کنترل بحران: در این روش، یک نظام کنترل و بررسی پیشرفته برای رصد رفتار ChatGPT و جلوگیری از ایجاد خروجی های نامناسب ایجاد می شود. این روش نیاز به پایش و کنترل فراگیر برای تضمین تمیزی و امنیت بیشتر دارد. در هر صورت، تلاش برای حذف محتوای ضد اخلاقی و نامناسب، نمی‌تواند به شکلی مطلق صورت بگیرد، زیرا همیشه امکان وجود دارد که ChatGPT با شرایط و محتوای جدیدی مواجه شود که برای آن الگویی در داده های آموزشی وجود ندارد. به همین دلیل، برای حل این مسئله نیاز به ی