نفوذ هوش مصنوعی در روان‌درمانگری

لاری کلارک، پژوهشگر وبگاه «MIT Technology Review» در گزارش جدید خود، یک کاربرد نوظهور هوش مصنوعی، یعنی حضور هوش مصنوعی در اتاق روانکاوی را بررسی کرده است! استفاده روزافزون درمانگران از هوش مصنوعی و اعلام نکردن آن چالش تازه‌ای در حوزه روان‌شناسی محسوب می‌شود. کلارک با بیان تجربه چند نفر که طی درمان متوجه استفاده درمانگران خود از هوش مصنوعی شده‌اند و مصاحبه با چند تن از متخصصان این حوزه به پیامدهای کاربرد تازه استفاده از هوش مصنوعی در فرآیندهای روان‌درمانی پرداخته است.
اگر یک خطای فنی پیش نمی‌آمد، دکلن هرگز متوجه نمی‌شد درمانگرش از چت‌جی‌پی‌تی استفاده می‌کند. در یکی از جلسات آنلاین، اتصال اینترنت ضعیف بود و دکلن پیشنهاد داد که هر دو دوربینشان را خاموش کنند. اما به‌جای آن، درمانگرش به‌طور ناخواسته صفحه‌نمایش خود را به اشتراک گذاشت.
این روایت دکلن ۳۱ ساله ساکن لس‌آنجلس است که می‌گوید ناگهان دیدم او در حال استفاده از چت‌جی‌پی‌تی است. او حرف‌های مرا می‌گرفت و در چت‌جی‌پی‌تی وارد می‌کرد، بعد خلاصه یا تکه‌هایی از جواب‌ها را انتخاب می‌کرد و به من برمی‌گرداند. دکلن آن‌قدر شوکه شده بود که چیزی نگفت و تا پایان جلسه شاهد جریان زنده تحلیل‌های چت‌جی‌پی‌تی روی صفحه درمانگرش بود. اوضاع وقتی عجیب‌تر شد که دکلن شروع به تکرار پاسخ‌های چت‌جی‌پی‌تی در حرف‌های خودش کرد و قبل از آن‌که درمانگر چیزی بگوید، خودش همان پاسخ را تکرار می‌کرد.
او می‌گوید: «من تبدیل به بهترین بیمار دنیا شدم؛ چون مثلاً چت‌جی‌پی‌تی می‌گفت: خب، آیا فکر نمی‌کنی شیوه فکرت کمی سیاه‌وسفید باشد؟ و من می‌گفتم: آها، راست می‌گی، فکر کنم شیوه فکرم زیادی سیاه و سفید است و درمانگرم می‌گفت دقیقاً! مطمئنم آن جلسه برای او رویایی بود.» یکی از پرسش‌هایی که در ذهن دکلن می‌چرخید این بود که آیا این کار قانونی است؟ وقتی دکلن در جلسه بعدی موضوع را با درمانگرش در میان گذاشت، وی توضیح داد که احساس کرده در روند درمان به بن‌بست رسیده‌اند و به همین دلیل به‌دنبال پاسخ در جای دیگری رفته است. دکلن با خنده می‌گوید: «با این حال، بابت آن جلسه همچنان از من پول گرفتند.»
رونق مدل‌های زبانی بزرگ در سال‌های اخیر پیامدهای غیرمنتظره‌ای برای حوزه روان‌درمانی داشته است؛ عمدتاً به این دلیل که شمار فزاینده‌ای از افراد، ابزارهایی مانند چت‌جی‌پی‌تی را جایگزین درمانگران انسانی کرده‌اند؛ اما کمتر به این موضوع پرداخته شده که خودِ درمانگران چگونه هوش مصنوعی را وارد کار حرفه‌ای می‌نمایند. همانند بسیاری از فناوری‌های دیگر، هوش مصنوعی مولد وعده افزایش چشمگیر کارایی را می‌دهد، اما استفاده از آن می‌تواند به قیمت به‌خطر افتادن داده‌های حساس بیماران و تضعیف رابطه‌ای تمام شود که اعتماد در آن مهم ‌ترین رکن به شمار می‌رود.
احساسات مشکوک
نویسنده این مقاله نیز با اشاره به تجربه خود در این زمینه می‌گوید: دکلن تنها نیست؛ و من می‌توانم این را از تجربه شخصی خودم تأیید کنم. وقتی اخیراً ایمیلی از درمانگرم دریافت کردم که طولانی‌تر و مرتب‌تر از معمول به نظر می‌رسید، در ابتدا دلگرم شدم. پیام لحن مهربانی داشت و طولانی بودنش به من این حس را می‌داد که او وقت گذاشته و روی تمام نکات ایمیل تأمل کرده است.
وی در ادامه افزود: اما با کمی دقت بیشتر، ایمیل او کمی عجیب به نظر می‌رسید. فونت آن متفاوت بود و چندین نشانه آشنا از متن تولیدشده توسط هوش مصنوعی در آن دیده می‌شد. وقتی متوجه شدم که احتمالاً چت‌جی‌پی‌تی در نگارش پیام نقش داشته است؛ احساس مثبت من خیلی زود رنگ باخت و جای خود را به ناامیدی و بی‌اعتمادی داد و هنگامی که از درمانگرم در امورد پرسیدم، فرضیه من را تأیید کرد.
کلارک همچنین گفت: با وجود این‌که او اطمینان داد صرفاً برای نوشتن ایمیل‌های طولانی‌تر از هوش مصنوعی کمک می‌گیرد، من همچنان نسبت به این‌که چه میزان از احساسات بیان‌شده واقعاً از سوی خودش بوده و چه مقدار از طرف ربات، دچار تردید بودم. همچنین نتوانستم این سو‌ظن را کاملاً کنار بگذارم که شاید او ایمیل بسیار شخصی مرا به‌طور کامل در چت‌جی‌پی‌تی کپی کرده باشد. وقتی در اینترنت جست‌وجو کردم تا ببینم آیا دیگران هم تجربه مشابهی داشته‌اند، با نمونه‌های متعددی روبه‌رو شدم از افرادی که تصور می‌کردند پیام‌های دریافتی از درمانگرانشان توسط هوش مصنوعی تولید شده است.
معضل افشاگری
شاید این استدلال بی‌راه نباشد که هوش مصنوعی می‌تواند به درمانگران در برقراری ارتباط با مراجعان کمک کند. در یک مطالعه در سال ۲۰۲۵ که در نشریه «PLOS Mental Health» منتشر شد، از درمانگران خواسته شد با استفاده از چت‌جی‌پی‌تی به نمونه مشکلاتی که بیماران ممکن است در جلسات درمان مطرح کنند، پاسخ دهند. نتیجه شگفت‌انگیز بود؛ نه‌تنها جمعی متشکل از ۸۳۰ شرکت‌کننده نتوانست بین پاسخ‌های انسانی و پاسخ‌های تولیدشده توسط هوش مصنوعی تفاوتی قائل شود، بلکه پاسخ‌های هوش مصنوعی حتی بیش از پاسخ‌های انسانی با اصول شناخته‌شده روان‌درمانی مطابقت داشتند.
با این حال، وقتی شرکت‌کنندگان حدس می‌زدند پاسخ‌ها توسط چت‌جی‌پی‌تی نوشته شده باشد، آن‌ها را سطح پایین‌تر ارزیابی می‌کردند. جالب آن‌که پاسخ‌های چت‌جی‌پی‌تی که به درمانگران نسبت داده شده بودند، بالاترین امتیاز را در کل دریافت کردند.
به‌طور مشابه، پژوهشگران دانشگاه کُرنل در یک مطالعه در سال ۲۰۲۳ دریافتند که پیام‌های تولیدشده توسط هوش مصنوعی در صورتی که دریافت‌کننده از نقش هوش مصنوعی بی‌اطلاع باشد؛ می‌تواند احساس صمیمیت و همکاری را میان طرفین گفت‌وگو افزایش دهد. این در حالی است که صرفِ گمان بردن به استفاده از هوش مصنوعی کافی بود تا حسن نیت به‌سرعت از بین برود.
آدریان آگویلرا، روان‌شناس بالینی و استاد دانشگاه کالیفرنیا، برکلی می‌گوید: مردم به‌ویژه در مواردی چون روان‌درمانی به اصالت اهمیت می‌دهند. فکر می‌کنم استفاده از هوش مصنوعی می‌تواند این حس را ایجاد کند که شخص رابطه را جدی نمی‌گیرد. آیا من باید پاسخ همسر یا فرزندانم را با چت‌جی‌پی‌تی بدهم؟ این رابطه به هیچ وجه واقعی به نظر نمی‌رسد.
در سال ۲۰۲۳ و در روزهای آغازین ظهور هوش مصنوعی مولد، سرویس درمان آنلاین «Koko» یک آزمایش پنهانی روی کاربران خود انجام داد. این پلتفرم پاسخ‌های تولیدشده توسط «GPT-۳» را با پاسخ‌های نوشته‌شده توسط انسان ترکیب کرد. نتیجه نشان داد که کاربران تمایل داشتند پاسخ‌های تولیدشده توسط هوش مصنوعی را مثبت‌تر ارزیابی کنند. اما افشای این‌که کاربران ناخواسته در معرض یک آزمایش قرار گرفته‌اند، خشم گسترده‌ای را برانگیخت.
آگویلرا معتقد است درمانگرانی که با کمبود وقت مواجه هستند می‌توانند از مدل‌های زبانی بزرگ بهره ببرند، اما شفافیت در این زمینه حیاتی است. او معتقد است که روان‌درمانگران باید صادق باشند و به افراد بگویند که قصد دارند از این ابزار برای برخی مقاصد استفاده کنند و دلیل این تصمیم را نیز توضیح دهند. در این صورت، افراد پیام‌های تولیدشده توسط هوش مصنوعی را در همان بستر و با آن زمینه دریافت می‌کنند.
بر اساس نتایج پژوهشی که در سال ۲۰۲۳ توسط انجمن روان‌شناسی آمریکا انجام شد، روان‌شناسان اغلب در آستانه ظرفیت کاری خود فعالیت می‌کنند و میزان فرسودگی شغلی در این حرفه بالاست. همین بستر است که جذابیت ابزارهای مبتنی بر هوش مصنوعی را آشکار می‌سازد. با این وجود، عدم شفافیت خطر تخریب دائمی اعتماد را به همراه دارد.
به خطر افتادن حریم خصوصی بیماران
مارگارت موریس، روان‌شناس بالینی و عضو وابسته هیئت‌علمی دانشگاه واشنگتن، می‌گوید: فراتر از مسئله شفافیت، بسیاری از درمانگران اساساً نسبت به استفاده از مدل‌های زبانی بزرگ مردد هستند. وی معتقد است که این ابزارها می‌توانند برای یادگیری واقعاً ارزشمند باشند و تأکید می‌کند که درمانگران باید در طول دوران حرفه‌ای خود همچنان به توسعه مهارت‌هایشان ادامه دهند.
پردیس امامی نائینی، استادیار علوم کامپیوتر در دانشگاه دوک که درباره پیامدهای حریم خصوصی و امنیتی مدل‌های زبانی بزرگ در حوزه سلامت تحقیق کرده است نیز توصیه می‌کند: درمانگران باید بدانند که چت‌بات‌های عمومی مانند چت‌جی‌پی‌تی نه توسط سازمان غذا و داروی آمریکا تأیید شده‌اند و نه با مقررات قانون «قابلیت انتقال و پاسخگویی بیمه سلامت»[۱] سازگار هستند. این قانون مجموعه‌ای از مقررات فدرال در ایالات متحده است که از اطلاعات حساس سلامت افراد محافظت می‌کند. امامی نائینی همچنین گفت: این موضوع، اگر هرگونه اطلاعاتی درباره بیمار افشا شود یا توسط هوش مصنوعی قابل استنتاج باشد، خطرات قابل‌توجهی برای حریم خصوصی بیماران ایجاد می‌کند.
استادیار علوم کامپیوتر دانشگاه دوک در یک مقاله اخیر دریافت که بسیاری از کاربران به‌اشتباه تصور می‌کنند چت‌جی‌پی‌تی با قانون قابلیت انتقال و مسئولیت بیمه سلامت سازگار است و همین امر نوعی اعتماد بی‌جا به این ابزار ایجاد می‌کند. وی می‌گوید: وقتی برای کمک در ایمیل‌نویسی از هوش مصنوعی استفاده می‌شود، موضوع به این سادگی نیست که فقط نام‌ها و آدرس‌ها حذف شوند. اطلاعات حساس اغلب می‌تواند از جزئیاتی ظاهراً غیرحساس‌، استنتاج شود. او همچنین اضافه می‌کند: شناسایی و بازنویسی تمام داده‌های بالقوه حساس نیازمند زمان و تخصص است؛ چیزی که ممکن است با هدف اصلیِ سهولت استفاده از ابزارهای هوش مصنوعی در تضاد باشد. در هر صورت، درمانگران باید استفاده از هوش مصنوعی را به بیماران اطلاع دهند و رضایت آن‌ها را جلب کنند.
از سوی دیگر، تعداد فزاینده‌ای از شرکت‌ها، از جمله «Heidi Health» و «Up heal» و «Lyssn»  و «Blueprint»، در حال عرضه ابزارهای تخصصی مانند یادداشت‌برداری با کمک هوش مصنوعی، آموزش و خدمات رونویسی برای درمانگران هستند. این شرکت‌ها ادعا می‌کنند با قانون قابلیت انتقال و مسئولیت بیمه سلامت سازگار هستند و داده‌ها را با استفاده از رمزنگاری و در صورت لزوم با بهره‌گیری از مستعارسازی به صورت ایمن ذخیره می‌کنند. با این حال، بسیاری از درمانگران همچنان نسبت به پیامدهای حریم خصوصی ابزارهای مذکور محتاط‌ هستند. امامی‌ نائینی می‌گوید: حتی اگر حفاظت‌های حریم خصوصی بهبود یابند، همیشه مقداری خطر نشت اطلاعات یا استفاده ثانویه از داده‌ها وجود دارد.
یک حمله سایبری در سال ۲۰۲۰ به یک شرکت سلامت روان در فنلاند که منجر به دسترسی به پرونده‌های درمانی ده‌ها هزار مراجعه‌کننده شد، نمونه‌ای از این موارد است. نام افراد در فهرست به‌عنوان ابزار اخاذی به کار گرفته شد و در نهایت کل داده‌ها به صورت عمومی منتشر شد؛ داده‌هایی که شامل جزئیات فوق‌العاده حساسی از جمله تجربه سوءاستفاده جنسی در کودکی و اعتیاد افراد بود.
آنچه درمانگران در معرض از دست دادن آن هستند
علاوه بر نقض حریم خصوصی داده‌ها، استفاده روان‌درمانگران از مدل‌های زبانی بزرگ به نمایندگی از یک بیمار، خطرات دیگری نیز به همراه دارد. پژوهش‌ها نشان داده‌اند که هرچند پاسخ‌های برخی ربات‌های تخصصی درمانی می‌تواند با مداخلات انسانی برابری کند، اما توصیه‌هایی از جنس چت‌جی‌پی‌تی ممکن است بیش از آن‌که مفید باشند، آسیب‌زا ظاهر شوند.
به‌عنوان نمونه، مطالعه اخیر دانشگاه استنفورد نشان داد که چت‌بات‌ها می‌توانند با تأیید کورکورانه کاربران به‌جای به چالش کشیدن آن‌ها به تقویت توهمات و حتی رفتارهای روان‌آزاری دامن بزنند. این پژوهش همچنین دریافت که ربات‌ها می‌توانند دچار سوگیری شوند و رفتار متملقانه از خود نشان دهند. همین کاستی‌ها باعث می‌شود که استفاده درمانگران از چت‌بات‌ها به نمایندگی از بیمارانشان خطرناک باشد. برای مثال، این فناوری ممکن است یک حدس بی‌اساس را تأیید کند یا درمانگر را به مسیر اشتباهی بکشاند.
آگویلرا می‌گوید هنگام آموزش کارآموزان سلامت روان با ابزارهایی مانند چت‌جی‌پی‌تی تعامل داشته و گاهی علائم فرضی را وارد می‌کرده و از چت‌بات می‌خواسته تشخیص بدهند. او می‌گوید این ابزار فهرست بلندی از شرایط احتمالی ارائه می‌دهد، اما تحلیلی سطحی دارد. انجمن مشاوره آمریکا نیز توصیه می‌کند که در حال حاضر از هوش مصنوعی برای تشخیص مشکلات سلامت روان استفاده نشود.
یک مطالعه منتشرشده در سال ۲۰۲۴ روی نسخه‌ای پیشین از چت‌جی‌پی‌تی نیز به همین نتیجه رسید. بر اساس نتایج این پژوهش، پاسخ‌های ابزار مذکور برای تشخیص یا تدوین برنامه‌های درمانی بیش از حد مبهم و کلی است و به‌شدت به سمت توصیه درمان شناختی ـ رفتاری  (CBT) گرایش دارد، درحالی‌که انواع دیگر درمان که شاید مناسب‌تر باشند را کمتر در نظر می‌گیرد.
دانیل کیمل، روان‌پزشک و عصب‌پژوه در دانشگاه کلمبیا، آزمایش‌هایی با چت‌جی‌پی‌تی انجام داد و در آن نقش یک مراجع با مشکلات روانی را بازی کرد. او در جریان تحقیقات خود دریافت که این چت‌بات در ارائه پاسخ‌های رایج درمانی مثل عادی‌سازی و تأیید احساسات، درخواست اطلاعات بیشتر یا برجسته کردن برخی ارتباط‌های شناختی یا عاطفی، ابزاری تقلیدکننده است.
او می‌گوید چت‌جی‌پی‌تی خیلی وارد عمق مسئله نمی‌شد. این ابزار تلاشی برای پیوند دادن چیزهایی که به‌ظاهر یا به‌طور سطحی بی‌ارتباط بودند و تبدیل آن‌ها به یک روایت منسجم، خلق یک داستان، ایده یا نظریه نمی‌کرد. وی همچنین ادامه می‌دهد: «من نسبت به استفاده از آن برای فکر کردن به‌جای شما بدبینم. تفکر باید کار درمانگران باشد.»
موریس می‌گوید: درمانگران می‌توانند با استفاده از فناوری‌های مجهز به هوش مصنوعی در وقت صرفه‌جویی کنند، اما این منفعت باید در برابر نیازهای بیماران سنجیده شود. شاید روانشناسان چند دقیقه برای خودت ذخیره کنند؛ اما در عوض چه چیزی را از دست می‌دهند؟
نفوذ  هوش مصنوعی  در روان‌درمانگری