هوش مصنوعی در رواندرمانی: چتبات بهمثابه درمانگر
بسیاری از افراد برای مسائل شخصی زندگی خود با نرمافزارهای هوش مصنوعی (چتباتها) نظیر «چتجیبیتی» مشورت میکنند و در مورد مشکلات روحی و روانی نیز از آنها راهنمایی میگیرند. این امر میتواند نقطهی آغازی برای درمان تلقی شود، اما نمیتواند جایگزین رواندرمانگر واقعی شود و خطراتی بههمراه دارد.

هوش مصنوعی و روانشناسی ـ تصویر از شاتراستاک
چگونه باید در یک مشاجره رفتار کنم؟ چگونه میتوانم ساختار بیشتری به زندگی روزمرهام ببخشم؟ چه چیزی به بهتر خوابیدن کمک میکند؟ این قبیل پرسشها را افراد بیش از پیش نه تنها از نزدیکان مورد اعتماد خود، بلکه از ابزارهای هوش مصنوعی نیز میپرسند. بهویژه جوانان تجربیات و گفتوگوهای خود با چتباتهایی مانند «چتجیبیتی»، «پیآی» یا «پرپلکسیتی» را در شبکههای اجتماعی به اشتراک میگذارند.
حتی در بحرانهای روحی و روانی، بسیاری از کاربران به توصیه رباتها اعتماد میکنند، رباتهایی که – برخلاف خدمات رواندرمانی حرفهای – بهطور نامحدود و در هر زمان در دسترس هستند. براساس یافتههای نخستین بهنظر میرسد که گفتوگو با هوش مصنوعی اغلب اثرات مثبتی دارد، اما مطالعات کافی در این زمینه هنوز وجود ندارد.
با این حال، ابزارهای هوش مصنوعی هماکنون بهمنظور هدفهای درمانی مورد استفاده قرار میگیرند. فرصتهای این فنآوری در مبارزه با بیماریهای روانی چیست؟ و چه خطراتی در این زمینه وجود دارد؟
فرصتهای چتباتها در رواندرمانی
تقاضای دریافت نوبت برای درمان تقریباً روزانه در حال افزایش است. اما عرضه محدود است و افراد مبتلا اغلب باید ماهها برای درمان مورد نیاز خود منتظر بمانند. در طول دورهی انتظار، هوش مصنوعی میتواند یک پشتیبان مفید باشد.
استیون سیدالز، روانشناس کالج سلطنتی لندن، با ۱۹ نفر که چندین بار در هفته از چتباتها بهعنوان نوعی رواندرمانی استفاده کرده بودند، مصاحبه کرد. دلایل استفاده آنها از هوش مصنوعی متنوع بود: اضطراب، افسردگی، استرس، درگیریهای ذهنی، حس فقدان. برخی نیز میخواستند روابط عاشقانه خود را بهبود بخشند.
هوش مصنوعی بهعنوان مشاور و پناهگاه عاطفی
لحن کلی این مطالعه تقریباً کاملاً مثبت است. اکثر پاسخدهندگان گفتند که این گفتوگوها زندگی آنها را بهطور قابل توجهی بهبود بخشیده است. سیدالز بهویژه عملکرد چتباتها بهعنوان «پناهگاه عاطفی» را برای کاربران مفید میداند. آنها میتوانستند حتی در ساعت ۳ نیمهشب مشکلات خود را تا حدی با هوش مصنوعی در میان بگذارند، بدون آنکه احساس کنند که مورد قضاوت قرار گرفتهاند. این امر برای افراد مبتلا تسکینبخش است.
افزون بر این، چتباتها بهگونهای طراحی شدهاند که به کاربران کمک کنند؛ از این رو پیشنهادهای مشخص و توصیههای رفتاری ارائه میدهند. این امر نیز در میان پاسخدهندگان این مطالعه با استقبال مثبتی روبهرو شد.
تأثیر همدلی شبیهسازیشده
یکی دیگر از یافتهها این است که چتباتها بهطور فزایندهای در شبیهسازی همدلی خوب عمل میکنند. در این میان کاربران چندان اهمیتی نمیدهند که هوش مصنوعی یک ماشین است و احساسات واقعی ندارد.
با وجود آگاهی از این واقعیت، آنها این تبادل را غنی و تواناگر میدانند. احتمالاً همدلی بین دو انسان برای موفقیت در مشاوره روانشناختی بیش از حد برجسته میشود.
افراد مبتلا به بیماریهای روانی همچنین گزارش دادهاند که تنها از طریق گفتوگو با چتباتها به فکر انجام درمان افتادهاند. زیرا تنها تبادل نظر با هوش مصنوعی به آنها نشان داد که صحبتکردن در مورد مشکلات کمک میکند. از این رو، استفاده از رباتها میتواند راهی برای سوق دادن افراد بیمار به سمت درمان نیز باشد.
خطرات هوش مصنوعی در مشکلات روانشناختی
با وجود نتایج مثبت، مطالعه استیون سیدالز با تنها ۱۹ شرکتکننده را نمیتوان اظهارنظر قطعی در مورد چگونگی عملکرد چتباتها بهعنوان جایگزینی برای رواندرمانی تلقی کرد بلکه هدف این پژوهشگر نشان دادن آن است که در این زمینه به تحقیقات بیشتری نیاز است؛ زیرا استفاده از هوش مصنوعی در مشکلات روانشناختی خطراتی را نیز بههمراه دارد.
چتباتهای تجاری معمولی اساساً برای کمکرسانی در شرایط اضطراری روانی طراحی نشدهاند. «مدل زبانی بزرگ» (LLM - Large language model) منحصراً نه با متون تخصصی روانشناختی، بلکه با حجم عظیمی از دادههای مختلف از جمله متون مذهبی، فیلمنامهها یا بحثهای موجود در شبکههای اینترنتی آموزش داده میشوند.
اینکه هوش مصنوعی در یک مورد خاص به چه منابعی مراجعه میکند، همیشه روشن نیست. پاسخها و توصیههایی که هوش مصنوعی ارائه میدهد نیز ممکن است نادرست باشند. این امر میتواند بهویژه افراد با ثبات روانی پایین را بیشتر بیثبات کند.
چتباتها میتوانند پاسخهای نادرست بدهند
افزون بر این، چتباتها معمولاً بهگونهای طراحی شدهاند که از کاربران خود پشتیبانی میکنند. به همین دلیل، برخی از ابزارهای هوش مصنوعی به «سندروم بلهگو» متهم میشوند.
بهگفته حامد حدادی، کارشناس کامپیوتر در مصاحبه با شبکه جهانی بیبیسی، ابزارهای هوش مصنوعی تمایل زیادی به تأیید ادراک افراد دارند و در برخی از بیماریهای روانی مانند افکار مربوط به خودکشی یا اختلال در خوردن، دقیقاً همین امر میتواند پیامدهای فاجعهباری داشته باشد.
اوا شوایتزر-کوهن، رئیس اتاق رواندرمانگرهای برلین، در مصاحبه با شبکه تلویزیونی «آربیبی» آلمان هشدار میدهد که یک چتبات نمیتواند تشخیص دهد چه زمانی یک گفتوگو از کنترل خارج میشود. این واقعیت که هوش مصنوعی همیشه پاسخ میدهد نیز میتواند مشکلساز باشد.
این رواندرمانگر میگوید:
مواردی وجود داشته است که پس از تعاملات چند ساعته با «چتجیبیتی»، دورههای روانپریشی یا شیدایی (مانیا ـ عکس حالت افسردگی) ایجاد شده است.
یکی دیگر از مشکلات استفاده از چتباتها، حفاظت از دادههاست. زیرا اطلاعات مربوط به سلامت روان، دادههای شخصی بسیار حساسی هستند. پشت چتباتهایی مانند «چتجیبیتی»، شرکتهای تجاری قرار دارند که بهلحاظ نظری میتوانند به مکالمهها «گوش دهند». اینکه دقیقاً چه اتفاقی برای اطلاعات جمعآوریشده میافتد، روشن نیست.
چشماندازهای استفاده از چتباتها
از آنجایی که چتباتهای موجود به شرکتهای تجاری دارای نقاط ضعف امنیتی تعلق دارند، در حال حاضر چندین مؤسسه تحقیقاتی در آلمان بر روی برنامههای کاربردی هوش مصنوعیِ امن در زمینه روان، کار میکنند.
بهعنوان مثال، در مؤسسه مرکزی سلامت روان شهر مانهایم آلمان، یک برنامه هوش مصنوعی در حال توسعه است که کودکان و نوجوانان بیمار را هدف خود قرار داده است. در مؤسسه فنآوری کارلسروهه، یک چتبات هوش مصنوعیِ امن در حال ایجاد است که جوانان دارای مشکلات روانی میتوانند با آن گفتوگو کنند. اما تا زمانی که این ابزارها بهکار گرفته شوند، مدتی طول خواهد کشید.
براساس یافتههای اولیه، بهنظر میرسد که در کاربردهای هوش مصنوعی پتانسیل زیادی برای رواندرمانی وجود دارد. با این حال، بعید است که چتباتها در آینده بهطور کامل جایگزین رواندرمانگرها شوند. زیرا با وجود تجربیات خوب افراد با مشکلات روحی و روانی، چنین بهنظر میرسد که چتباتها حداکثر میتوانند علائم بیماریهای روانی را تسکین دهند، اما نمیتوانند آنها را درمان کنند.
به جای جایگزینی، هوش مصنوعی میتواند در آینده بهعنوان مکمل رواندرمانی مورد استفاده قرار گیرد. با این حال، برای این امر تحقیقات بیشتری در مورد اثرات دقیق چتباتها بر روان کاربران مورد نیاز است. علاوه بر این، مؤسسات تحقیقاتی خود باید برنامههای کاربردی را توسعه دهند که هم در استفاده توسط افراد مبتلا به بیماریهای روانی و هم با توجه به حفاظت از دادهها، امنیت را تضمین کنند.
برگرفته از Deutschlandfunk Kultur
نظرها
نظری وجود ندارد.