ارتباط ناشناخته. ارتباط بدون سانسور. ارتباط برقرار نمی‌شود. سایت اصلی احتمالاً زیر سانسور است. ارتباط با سایت (های) موازی برقرار شد. ارتباط برقرار نمی‌شود. ارتباط اینترنت خود را امتحان کنید. احتمال دارد اینترنت به طور سراسری قطع شده باشد. ادامه مطلب

هوش مصنوعی در روان‌درمانی: چت‌بات به‌مثابه درمانگر

بسیاری از افراد برای مسائل شخصی زندگی خود با نرم‌افزارهای هوش مصنوعی (چت‌بات‌ها) نظیر «چت‌جی‌بی‌تی» مشورت می‌کنند و در مورد مشکلات روحی و روانی نیز از آن‌ها راهنمایی می‌گیرند. این امر می‌تواند نقطه‌ی آغازی برای درمان تلقی شود، اما نمی‌تواند جایگزین روان‌درمانگر واقعی شود و خطراتی به‌همراه دارد.

چگونه باید در یک مشاجره رفتار کنم؟ چگونه می‌توانم ساختار بیشتری به زندگی روزمره‌ام ببخشم؟ چه چیزی به بهتر خوابیدن کمک می‌کند؟ این قبیل پرسش‌ها را افراد بیش از پیش نه تنها از نزدیکان مورد اعتماد خود، بلکه از ابزارهای هوش مصنوعی نیز می‌پرسند. به‌ویژه جوانان تجربیات و گفت‌وگوهای خود با چت‌بات‌هایی مانند «چت‌جی‌بی‌تی»، «پی‌آی» یا «پرپلکسیتی» را در شبکه‌های اجتماعی به اشتراک می‌گذارند.

حتی در بحران‌های روحی و روانی، بسیاری از کاربران به توصیه ربات‌ها اعتماد می‌کنند، ربات‌هایی که – برخلاف خدمات روان‌درمانی حرفه‌ای – به‌طور نامحدود و در هر زمان در دسترس هستند. براساس یافته‌های نخستین به‌نظر می‌رسد که گفت‌وگو با هوش مصنوعی اغلب اثرات مثبتی دارد، اما مطالعات کافی در این زمینه هنوز وجود ندارد.

با این حال، ابزارهای هوش مصنوعی هم‌اکنون به‌منظور هدف‌های درمانی مورد استفاده قرار می‌گیرند. فرصت‌های این فن‌آوری در مبارزه با بیماری‌های روانی چیست؟ و چه خطراتی در این زمینه وجود دارد؟

فرصت‌های چت‌بات‌ها در روان‌درمانی

تقاضای دریافت نوبت برای درمان تقریباً روزانه در حال افزایش است. اما عرضه محدود است و افراد مبتلا اغلب باید ماه‌ها برای درمان مورد نیاز خود منتظر بمانند. در طول دوره‌ی انتظار، هوش مصنوعی می‌تواند یک پشتیبان مفید باشد.

استیون سیدالز، روان‌شناس کالج سلطنتی لندن، با ۱۹ نفر که چندین بار در هفته از چت‌بات‌ها به‌عنوان نوعی روان‌درمانی استفاده کرده بودند، مصاحبه کرد. دلایل استفاده آن‌ها از هوش مصنوعی متنوع بود: اضطراب، افسردگی، استرس، درگیری‌های ذهنی، حس فقدان. برخی نیز می‌خواستند روابط عاشقانه خود را بهبود بخشند.

هوش مصنوعی به‌عنوان مشاور و پناهگاه عاطفی

لحن کلی این مطالعه تقریباً کاملاً مثبت است. اکثر پاسخ‌دهندگان گفتند که این گفت‌وگوها زندگی آن‌ها را به‌طور قابل توجهی بهبود بخشیده است. سیدالز به‌ویژه عملکرد چت‌بات‌ها به‌عنوان «پناهگاه عاطفی» را برای کاربران مفید می‌داند. آن‌ها می‌توانستند حتی در ساعت ۳ نیمه‌شب مشکلات خود را تا حدی با هوش مصنوعی در میان بگذارند، بدون آن‌که احساس کنند که مورد قضاوت قرار گرفته‌اند. این امر برای افراد مبتلا تسکین‌بخش است.

افزون بر این، چت‌بات‌ها به‌گونه‌ای طراحی شده‌اند که به کاربران کمک کنند؛ از این رو پیشنهادهای مشخص و توصیه‌های رفتاری ارائه می‌دهند. این امر نیز در میان پاسخ‌دهندگان این مطالعه با استقبال مثبتی روبه‌رو شد.

 تأثیر همدلی شبیه‌سازی‌شده

یکی دیگر از یافته‌ها این است که چت‌بات‌ها به‌طور فزاینده‌ای در شبیه‌سازی همدلی خوب عمل می‌کنند. در این میان کاربران چندان اهمیتی نمی‌دهند که هوش مصنوعی یک ماشین است و احساسات واقعی ندارد.

با وجود آگاهی از این واقعیت، آن‌ها این تبادل را غنی‌ و تواناگر می‌دانند. احتمالاً همدلی بین‌ دو انسان برای موفقیت در مشاوره روان‌شناختی بیش از حد برجسته می‌شود.

افراد مبتلا به بیماری‌های روانی همچنین گزارش داده‌اند که تنها از طریق گفت‌وگو با چت‌بات‌ها به فکر انجام درمان افتاده‌اند. زیرا تنها تبادل نظر با هوش مصنوعی به آن‌ها نشان داد که صحبت‌کردن در مورد مشکلات کمک می‌کند. از این رو، استفاده از ربات‌ها می‌تواند راهی برای سوق دادن افراد بیمار به سمت درمان نیز باشد.

خطرات هوش مصنوعی در مشکلات روان‌شناختی

با وجود نتایج مثبت، مطالعه استیون سیدالز با تنها ۱۹ شرکت‌کننده را نمی‌توان اظهارنظر قطعی در مورد چگونگی عملکرد چت‌بات‌ها به‌عنوان جایگزینی برای روان‌درمانی تلقی کرد بلکه هدف این پژوهشگر نشان دادن آن است که در این زمینه به تحقیقات بیشتری نیاز است؛ زیرا استفاده از هوش مصنوعی در مشکلات روان‌شناختی خطراتی را نیز به‌همراه دارد.

چت‌بات‌های تجاری معمولی اساساً برای کمک‌رسانی در شرایط اضطراری روانی طراحی نشده‌اند. «مدل زبانی بزرگ» (LLM - Large language model) منحصراً نه با متون تخصصی روان‌شناختی، بلکه با حجم عظیمی از داده‌های مختلف از جمله متون مذهبی، فیلم‌نامه‌ها یا بحث‌های موجود در شبکه‌های اینترنتی آموزش داده می‌شوند.

این‌که هوش مصنوعی در یک مورد خاص به چه منابعی مراجعه می‌کند، همیشه روشن نیست. پاسخ‌ها و توصیه‌هایی که هوش مصنوعی ارائه می‌دهد نیز ممکن است نادرست باشند. این امر می‌تواند به‌ویژه افراد با ثبات روانی پایین را بیشتر بی‌ثبات کند.

چت‌بات‌ها می‌توانند پاسخ‌های نادرست بدهند

افزون بر این، چت‌بات‌ها معمولاً به‌گونه‌ای طراحی شده‌اند که از کاربران خود پشتیبانی می‌کنند. به همین دلیل، برخی از ابزارهای هوش مصنوعی به «سندروم بله‌گو» متهم می‌شوند.

به‌گفته حامد حدادی، کارشناس کامپیوتر در مصاحبه با شبکه جهانی بی‌بی‌سی، ابزارهای هوش مصنوعی تمایل زیادی به تأیید ادراک افراد دارند و در برخی از بیماری‌های روانی مانند افکار مربوط به خودکشی یا اختلال در خوردن، دقیقاً همین امر می‌تواند پیامدهای فاجعه‌باری داشته باشد.

اوا شوایتزر-کوهن، رئیس اتاق روان‌درمانگرهای برلین، در مصاحبه با شبکه تلویزیونی «آر‌بی‌بی» آلمان هشدار می‌دهد که یک چت‌بات نمی‌تواند تشخیص دهد چه زمانی یک گفت‌وگو از کنترل خارج می‌شود. این واقعیت که هوش مصنوعی همیشه پاسخ می‌دهد نیز می‌تواند مشکل‌ساز باشد.

این روان‌درمانگر می‌گوید:

مواردی وجود داشته است که پس از تعاملات چند ساعته با «چت‌جی‌بی‌تی»، دوره‌های روان‌پریشی یا شیدایی (مانیا ـ عکس حالت افسردگی) ایجاد شده است.

یکی دیگر از مشکلات استفاده از چت‌بات‌ها، حفاظت از داده‌هاست. زیرا اطلاعات مربوط به سلامت روان، داده‌های شخصی بسیار حساسی هستند. پشت چت‌بات‌هایی مانند «چت‌جی‌بی‌تی»، شرکت‌های تجاری قرار دارند که به‌لحاظ نظری می‌توانند به مکالمه‌ها «گوش دهند». این‌که دقیقاً چه اتفاقی برای اطلاعات جمع‌آوری‌شده می‌افتد، روشن نیست.

 چشم‌اندازهای استفاده از چت‌بات‌ها

از آن‌جایی که چت‌بات‌های موجود به شرکت‌های تجاری دارای نقاط ضعف امنیتی تعلق دارند، در حال حاضر چندین مؤسسه تحقیقاتی در آلمان بر روی برنامه‌های کاربردی هوش مصنوعیِ امن در زمینه روان‌، کار می‌کنند.

به‌عنوان مثال، در مؤسسه مرکزی سلامت روان شهر مانهایم آلمان، یک برنامه هوش مصنوعی در حال توسعه است که کودکان و نوجوانان بیمار را هدف خود قرار داده است. در مؤسسه فن‌آوری کارلسروهه، یک چت‌بات هوش مصنوعیِ امن در حال ایجاد است که جوانان دارای مشکلات روانی می‌توانند با آن گفت‌وگو کنند. اما تا زمانی که این ابزارها به‌کار گرفته شوند، مدتی طول خواهد کشید.

براساس یافته‌های اولیه، به‌نظر می‌رسد که در کاربردهای هوش مصنوعی پتانسیل زیادی برای روان‌درمانی وجود دارد. با این حال، بعید است که چت‌بات‌ها در آینده به‌طور کامل جایگزین روان‌درمانگرها شوند. زیرا با وجود تجربیات خوب افراد با مشکلات روحی و روانی، چنین به‌نظر می‌رسد که چت‌بات‌ها حداکثر می‌توانند علائم بیماری‌های روانی را تسکین دهند، اما نمی‌توانند آن‌ها را درمان کنند.

به جای جایگزینی، هوش مصنوعی می‌تواند در آینده به‌عنوان مکمل روان‌درمانی مورد استفاده قرار گیرد. با این حال، برای این امر تحقیقات بیشتری در مورد اثرات دقیق چت‌بات‌ها بر روان کاربران مورد نیاز است. علاوه بر این، مؤسسات تحقیقاتی خود باید برنامه‌های کاربردی را توسعه دهند که هم در استفاده توسط افراد مبتلا به بیماری‌های روانی و هم با توجه به حفاظت از داده‌ها، امنیت را تضمین کنند.

برگرفته از Deutschlandfunk Kultur

بیشتر بخوانید:

این مطلب را پسندیدید؟ کمک مالی شما به ما این امکان را خواهد داد که از این نوع مطالب بیشتر منتشر کنیم.

آیا مایل هستید ما را در تحقیق و نوشتن تعداد بیشتری از این‌گونه مطالب یاری کنید؟

.در حال حاضر امکان دریافت کمک مخاطبان ساکن ایران وجود ندارد

توضیح بیشتر در مورد اینکه چطور از ما حمایت کنید

نظر بدهید

در پرکردن فرم خطایی صورت گرفته

نظرها

نظری وجود ندارد.