نفوذ هوش مصنوعی در رواندرمانگری
لاری کلارک، پژوهشگر وبگاه «MIT Technology Review» در گزارش جدید خود، یک کاربرد نوظهور هوش مصنوعی، یعنی حضور هوش مصنوعی در اتاق روانکاوی را بررسی کرده است! استفاده روزافزون درمانگران از هوش مصنوعی و اعلام نکردن آن چالش تازهای در حوزه روانشناسی محسوب میشود. کلارک با بیان تجربه چند نفر که طی درمان متوجه استفاده درمانگران خود از هوش مصنوعی شدهاند و مصاحبه با چند تن از متخصصان این حوزه به پیامدهای کاربرد تازه استفاده از هوش مصنوعی در فرآیندهای رواندرمانی پرداخته است.
اگر یک خطای فنی پیش نمیآمد، دکلن هرگز متوجه نمیشد درمانگرش از چتجیپیتی استفاده میکند. در یکی از جلسات آنلاین، اتصال اینترنت ضعیف بود و دکلن پیشنهاد داد که هر دو دوربینشان را خاموش کنند. اما بهجای آن، درمانگرش بهطور ناخواسته صفحهنمایش خود را به اشتراک گذاشت.
این روایت دکلن ۳۱ ساله ساکن لسآنجلس است که میگوید ناگهان دیدم او در حال استفاده از چتجیپیتی است. او حرفهای مرا میگرفت و در چتجیپیتی وارد میکرد، بعد خلاصه یا تکههایی از جوابها را انتخاب میکرد و به من برمیگرداند. دکلن آنقدر شوکه شده بود که چیزی نگفت و تا پایان جلسه شاهد جریان زنده تحلیلهای چتجیپیتی روی صفحه درمانگرش بود. اوضاع وقتی عجیبتر شد که دکلن شروع به تکرار پاسخهای چتجیپیتی در حرفهای خودش کرد و قبل از آنکه درمانگر چیزی بگوید، خودش همان پاسخ را تکرار میکرد.
او میگوید: «من تبدیل به بهترین بیمار دنیا شدم؛ چون مثلاً چتجیپیتی میگفت: خب، آیا فکر نمیکنی شیوه فکرت کمی سیاهوسفید باشد؟ و من میگفتم: آها، راست میگی، فکر کنم شیوه فکرم زیادی سیاه و سفید است و درمانگرم میگفت دقیقاً! مطمئنم آن جلسه برای او رویایی بود.» یکی از پرسشهایی که در ذهن دکلن میچرخید این بود که آیا این کار قانونی است؟ وقتی دکلن در جلسه بعدی موضوع را با درمانگرش در میان گذاشت، وی توضیح داد که احساس کرده در روند درمان به بنبست رسیدهاند و به همین دلیل بهدنبال پاسخ در جای دیگری رفته است. دکلن با خنده میگوید: «با این حال، بابت آن جلسه همچنان از من پول گرفتند.»
رونق مدلهای زبانی بزرگ در سالهای اخیر پیامدهای غیرمنتظرهای برای حوزه رواندرمانی داشته است؛ عمدتاً به این دلیل که شمار فزایندهای از افراد، ابزارهایی مانند چتجیپیتی را جایگزین درمانگران انسانی کردهاند؛ اما کمتر به این موضوع پرداخته شده که خودِ درمانگران چگونه هوش مصنوعی را وارد کار حرفهای مینمایند. همانند بسیاری از فناوریهای دیگر، هوش مصنوعی مولد وعده افزایش چشمگیر کارایی را میدهد، اما استفاده از آن میتواند به قیمت بهخطر افتادن دادههای حساس بیماران و تضعیف رابطهای تمام شود که اعتماد در آن مهم ترین رکن به شمار میرود.
احساسات مشکوک
نویسنده این مقاله نیز با اشاره به تجربه خود در این زمینه میگوید: دکلن تنها نیست؛ و من میتوانم این را از تجربه شخصی خودم تأیید کنم. وقتی اخیراً ایمیلی از درمانگرم دریافت کردم که طولانیتر و مرتبتر از معمول به نظر میرسید، در ابتدا دلگرم شدم. پیام لحن مهربانی داشت و طولانی بودنش به من این حس را میداد که او وقت گذاشته و روی تمام نکات ایمیل تأمل کرده است.
وی در ادامه افزود: اما با کمی دقت بیشتر، ایمیل او کمی عجیب به نظر میرسید. فونت آن متفاوت بود و چندین نشانه آشنا از متن تولیدشده توسط هوش مصنوعی در آن دیده میشد. وقتی متوجه شدم که احتمالاً چتجیپیتی در نگارش پیام نقش داشته است؛ احساس مثبت من خیلی زود رنگ باخت و جای خود را به ناامیدی و بیاعتمادی داد و هنگامی که از درمانگرم در امورد پرسیدم، فرضیه من را تأیید کرد.
کلارک همچنین گفت: با وجود اینکه او اطمینان داد صرفاً برای نوشتن ایمیلهای طولانیتر از هوش مصنوعی کمک میگیرد، من همچنان نسبت به اینکه چه میزان از احساسات بیانشده واقعاً از سوی خودش بوده و چه مقدار از طرف ربات، دچار تردید بودم. همچنین نتوانستم این سوظن را کاملاً کنار بگذارم که شاید او ایمیل بسیار شخصی مرا بهطور کامل در چتجیپیتی کپی کرده باشد. وقتی در اینترنت جستوجو کردم تا ببینم آیا دیگران هم تجربه مشابهی داشتهاند، با نمونههای متعددی روبهرو شدم از افرادی که تصور میکردند پیامهای دریافتی از درمانگرانشان توسط هوش مصنوعی تولید شده است.
معضل افشاگری
شاید این استدلال بیراه نباشد که هوش مصنوعی میتواند به درمانگران در برقراری ارتباط با مراجعان کمک کند. در یک مطالعه در سال ۲۰۲۵ که در نشریه «PLOS Mental Health» منتشر شد، از درمانگران خواسته شد با استفاده از چتجیپیتی به نمونه مشکلاتی که بیماران ممکن است در جلسات درمان مطرح کنند، پاسخ دهند. نتیجه شگفتانگیز بود؛ نهتنها جمعی متشکل از ۸۳۰ شرکتکننده نتوانست بین پاسخهای انسانی و پاسخهای تولیدشده توسط هوش مصنوعی تفاوتی قائل شود، بلکه پاسخهای هوش مصنوعی حتی بیش از پاسخهای انسانی با اصول شناختهشده رواندرمانی مطابقت داشتند.
با این حال، وقتی شرکتکنندگان حدس میزدند پاسخها توسط چتجیپیتی نوشته شده باشد، آنها را سطح پایینتر ارزیابی میکردند. جالب آنکه پاسخهای چتجیپیتی که به درمانگران نسبت داده شده بودند، بالاترین امتیاز را در کل دریافت کردند.
بهطور مشابه، پژوهشگران دانشگاه کُرنل در یک مطالعه در سال ۲۰۲۳ دریافتند که پیامهای تولیدشده توسط هوش مصنوعی در صورتی که دریافتکننده از نقش هوش مصنوعی بیاطلاع باشد؛ میتواند احساس صمیمیت و همکاری را میان طرفین گفتوگو افزایش دهد. این در حالی است که صرفِ گمان بردن به استفاده از هوش مصنوعی کافی بود تا حسن نیت بهسرعت از بین برود.
آدریان آگویلرا، روانشناس بالینی و استاد دانشگاه کالیفرنیا، برکلی میگوید: مردم بهویژه در مواردی چون رواندرمانی به اصالت اهمیت میدهند. فکر میکنم استفاده از هوش مصنوعی میتواند این حس را ایجاد کند که شخص رابطه را جدی نمیگیرد. آیا من باید پاسخ همسر یا فرزندانم را با چتجیپیتی بدهم؟ این رابطه به هیچ وجه واقعی به نظر نمیرسد.
در سال ۲۰۲۳ و در روزهای آغازین ظهور هوش مصنوعی مولد، سرویس درمان آنلاین «Koko» یک آزمایش پنهانی روی کاربران خود انجام داد. این پلتفرم پاسخهای تولیدشده توسط «GPT-۳» را با پاسخهای نوشتهشده توسط انسان ترکیب کرد. نتیجه نشان داد که کاربران تمایل داشتند پاسخهای تولیدشده توسط هوش مصنوعی را مثبتتر ارزیابی کنند. اما افشای اینکه کاربران ناخواسته در معرض یک آزمایش قرار گرفتهاند، خشم گستردهای را برانگیخت.
آگویلرا معتقد است درمانگرانی که با کمبود وقت مواجه هستند میتوانند از مدلهای زبانی بزرگ بهره ببرند، اما شفافیت در این زمینه حیاتی است. او معتقد است که رواندرمانگران باید صادق باشند و به افراد بگویند که قصد دارند از این ابزار برای برخی مقاصد استفاده کنند و دلیل این تصمیم را نیز توضیح دهند. در این صورت، افراد پیامهای تولیدشده توسط هوش مصنوعی را در همان بستر و با آن زمینه دریافت میکنند.
بر اساس نتایج پژوهشی که در سال ۲۰۲۳ توسط انجمن روانشناسی آمریکا انجام شد، روانشناسان اغلب در آستانه ظرفیت کاری خود فعالیت میکنند و میزان فرسودگی شغلی در این حرفه بالاست. همین بستر است که جذابیت ابزارهای مبتنی بر هوش مصنوعی را آشکار میسازد. با این وجود، عدم شفافیت خطر تخریب دائمی اعتماد را به همراه دارد.
به خطر افتادن حریم خصوصی بیماران
مارگارت موریس، روانشناس بالینی و عضو وابسته هیئتعلمی دانشگاه واشنگتن، میگوید: فراتر از مسئله شفافیت، بسیاری از درمانگران اساساً نسبت به استفاده از مدلهای زبانی بزرگ مردد هستند. وی معتقد است که این ابزارها میتوانند برای یادگیری واقعاً ارزشمند باشند و تأکید میکند که درمانگران باید در طول دوران حرفهای خود همچنان به توسعه مهارتهایشان ادامه دهند.
پردیس امامی نائینی، استادیار علوم کامپیوتر در دانشگاه دوک که درباره پیامدهای حریم خصوصی و امنیتی مدلهای زبانی بزرگ در حوزه سلامت تحقیق کرده است نیز توصیه میکند: درمانگران باید بدانند که چتباتهای عمومی مانند چتجیپیتی نه توسط سازمان غذا و داروی آمریکا تأیید شدهاند و نه با مقررات قانون «قابلیت انتقال و پاسخگویی بیمه سلامت»[۱] سازگار هستند. این قانون مجموعهای از مقررات فدرال در ایالات متحده است که از اطلاعات حساس سلامت افراد محافظت میکند. امامی نائینی همچنین گفت: این موضوع، اگر هرگونه اطلاعاتی درباره بیمار افشا شود یا توسط هوش مصنوعی قابل استنتاج باشد، خطرات قابلتوجهی برای حریم خصوصی بیماران ایجاد میکند.
استادیار علوم کامپیوتر دانشگاه دوک در یک مقاله اخیر دریافت که بسیاری از کاربران بهاشتباه تصور میکنند چتجیپیتی با قانون قابلیت انتقال و مسئولیت بیمه سلامت سازگار است و همین امر نوعی اعتماد بیجا به این ابزار ایجاد میکند. وی میگوید: وقتی برای کمک در ایمیلنویسی از هوش مصنوعی استفاده میشود، موضوع به این سادگی نیست که فقط نامها و آدرسها حذف شوند. اطلاعات حساس اغلب میتواند از جزئیاتی ظاهراً غیرحساس، استنتاج شود. او همچنین اضافه میکند: شناسایی و بازنویسی تمام دادههای بالقوه حساس نیازمند زمان و تخصص است؛ چیزی که ممکن است با هدف اصلیِ سهولت استفاده از ابزارهای هوش مصنوعی در تضاد باشد. در هر صورت، درمانگران باید استفاده از هوش مصنوعی را به بیماران اطلاع دهند و رضایت آنها را جلب کنند.
از سوی دیگر، تعداد فزایندهای از شرکتها، از جمله «Heidi Health» و «Up heal» و «Lyssn» و «Blueprint»، در حال عرضه ابزارهای تخصصی مانند یادداشتبرداری با کمک هوش مصنوعی، آموزش و خدمات رونویسی برای درمانگران هستند. این شرکتها ادعا میکنند با قانون قابلیت انتقال و مسئولیت بیمه سلامت سازگار هستند و دادهها را با استفاده از رمزنگاری و در صورت لزوم با بهرهگیری از مستعارسازی به صورت ایمن ذخیره میکنند. با این حال، بسیاری از درمانگران همچنان نسبت به پیامدهای حریم خصوصی ابزارهای مذکور محتاط هستند. امامی نائینی میگوید: حتی اگر حفاظتهای حریم خصوصی بهبود یابند، همیشه مقداری خطر نشت اطلاعات یا استفاده ثانویه از دادهها وجود دارد.
یک حمله سایبری در سال ۲۰۲۰ به یک شرکت سلامت روان در فنلاند که منجر به دسترسی به پروندههای درمانی دهها هزار مراجعهکننده شد، نمونهای از این موارد است. نام افراد در فهرست بهعنوان ابزار اخاذی به کار گرفته شد و در نهایت کل دادهها به صورت عمومی منتشر شد؛ دادههایی که شامل جزئیات فوقالعاده حساسی از جمله تجربه سوءاستفاده جنسی در کودکی و اعتیاد افراد بود.
آنچه درمانگران در معرض از دست دادن آن هستند
علاوه بر نقض حریم خصوصی دادهها، استفاده رواندرمانگران از مدلهای زبانی بزرگ به نمایندگی از یک بیمار، خطرات دیگری نیز به همراه دارد. پژوهشها نشان دادهاند که هرچند پاسخهای برخی رباتهای تخصصی درمانی میتواند با مداخلات انسانی برابری کند، اما توصیههایی از جنس چتجیپیتی ممکن است بیش از آنکه مفید باشند، آسیبزا ظاهر شوند.
بهعنوان نمونه، مطالعه اخیر دانشگاه استنفورد نشان داد که چتباتها میتوانند با تأیید کورکورانه کاربران بهجای به چالش کشیدن آنها به تقویت توهمات و حتی رفتارهای روانآزاری دامن بزنند. این پژوهش همچنین دریافت که رباتها میتوانند دچار سوگیری شوند و رفتار متملقانه از خود نشان دهند. همین کاستیها باعث میشود که استفاده درمانگران از چتباتها به نمایندگی از بیمارانشان خطرناک باشد. برای مثال، این فناوری ممکن است یک حدس بیاساس را تأیید کند یا درمانگر را به مسیر اشتباهی بکشاند.
آگویلرا میگوید هنگام آموزش کارآموزان سلامت روان با ابزارهایی مانند چتجیپیتی تعامل داشته و گاهی علائم فرضی را وارد میکرده و از چتبات میخواسته تشخیص بدهند. او میگوید این ابزار فهرست بلندی از شرایط احتمالی ارائه میدهد، اما تحلیلی سطحی دارد. انجمن مشاوره آمریکا نیز توصیه میکند که در حال حاضر از هوش مصنوعی برای تشخیص مشکلات سلامت روان استفاده نشود.
یک مطالعه منتشرشده در سال ۲۰۲۴ روی نسخهای پیشین از چتجیپیتی نیز به همین نتیجه رسید. بر اساس نتایج این پژوهش، پاسخهای ابزار مذکور برای تشخیص یا تدوین برنامههای درمانی بیش از حد مبهم و کلی است و بهشدت به سمت توصیه درمان شناختی ـ رفتاری (CBT) گرایش دارد، درحالیکه انواع دیگر درمان که شاید مناسبتر باشند را کمتر در نظر میگیرد.
دانیل کیمل، روانپزشک و عصبپژوه در دانشگاه کلمبیا، آزمایشهایی با چتجیپیتی انجام داد و در آن نقش یک مراجع با مشکلات روانی را بازی کرد. او در جریان تحقیقات خود دریافت که این چتبات در ارائه پاسخهای رایج درمانی مثل عادیسازی و تأیید احساسات، درخواست اطلاعات بیشتر یا برجسته کردن برخی ارتباطهای شناختی یا عاطفی، ابزاری تقلیدکننده است.
او میگوید چتجیپیتی خیلی وارد عمق مسئله نمیشد. این ابزار تلاشی برای پیوند دادن چیزهایی که بهظاهر یا بهطور سطحی بیارتباط بودند و تبدیل آنها به یک روایت منسجم، خلق یک داستان، ایده یا نظریه نمیکرد. وی همچنین ادامه میدهد: «من نسبت به استفاده از آن برای فکر کردن بهجای شما بدبینم. تفکر باید کار درمانگران باشد.»
موریس میگوید: درمانگران میتوانند با استفاده از فناوریهای مجهز به هوش مصنوعی در وقت صرفهجویی کنند، اما این منفعت باید در برابر نیازهای بیماران سنجیده شود. شاید روانشناسان چند دقیقه برای خودت ذخیره کنند؛ اما در عوض چه چیزی را از دست میدهند؟
اگر یک خطای فنی پیش نمیآمد، دکلن هرگز متوجه نمیشد درمانگرش از چتجیپیتی استفاده میکند. در یکی از جلسات آنلاین، اتصال اینترنت ضعیف بود و دکلن پیشنهاد داد که هر دو دوربینشان را خاموش کنند. اما بهجای آن، درمانگرش بهطور ناخواسته صفحهنمایش خود را به اشتراک گذاشت.
این روایت دکلن ۳۱ ساله ساکن لسآنجلس است که میگوید ناگهان دیدم او در حال استفاده از چتجیپیتی است. او حرفهای مرا میگرفت و در چتجیپیتی وارد میکرد، بعد خلاصه یا تکههایی از جوابها را انتخاب میکرد و به من برمیگرداند. دکلن آنقدر شوکه شده بود که چیزی نگفت و تا پایان جلسه شاهد جریان زنده تحلیلهای چتجیپیتی روی صفحه درمانگرش بود. اوضاع وقتی عجیبتر شد که دکلن شروع به تکرار پاسخهای چتجیپیتی در حرفهای خودش کرد و قبل از آنکه درمانگر چیزی بگوید، خودش همان پاسخ را تکرار میکرد.
او میگوید: «من تبدیل به بهترین بیمار دنیا شدم؛ چون مثلاً چتجیپیتی میگفت: خب، آیا فکر نمیکنی شیوه فکرت کمی سیاهوسفید باشد؟ و من میگفتم: آها، راست میگی، فکر کنم شیوه فکرم زیادی سیاه و سفید است و درمانگرم میگفت دقیقاً! مطمئنم آن جلسه برای او رویایی بود.» یکی از پرسشهایی که در ذهن دکلن میچرخید این بود که آیا این کار قانونی است؟ وقتی دکلن در جلسه بعدی موضوع را با درمانگرش در میان گذاشت، وی توضیح داد که احساس کرده در روند درمان به بنبست رسیدهاند و به همین دلیل بهدنبال پاسخ در جای دیگری رفته است. دکلن با خنده میگوید: «با این حال، بابت آن جلسه همچنان از من پول گرفتند.»
رونق مدلهای زبانی بزرگ در سالهای اخیر پیامدهای غیرمنتظرهای برای حوزه رواندرمانی داشته است؛ عمدتاً به این دلیل که شمار فزایندهای از افراد، ابزارهایی مانند چتجیپیتی را جایگزین درمانگران انسانی کردهاند؛ اما کمتر به این موضوع پرداخته شده که خودِ درمانگران چگونه هوش مصنوعی را وارد کار حرفهای مینمایند. همانند بسیاری از فناوریهای دیگر، هوش مصنوعی مولد وعده افزایش چشمگیر کارایی را میدهد، اما استفاده از آن میتواند به قیمت بهخطر افتادن دادههای حساس بیماران و تضعیف رابطهای تمام شود که اعتماد در آن مهم ترین رکن به شمار میرود.
احساسات مشکوک
نویسنده این مقاله نیز با اشاره به تجربه خود در این زمینه میگوید: دکلن تنها نیست؛ و من میتوانم این را از تجربه شخصی خودم تأیید کنم. وقتی اخیراً ایمیلی از درمانگرم دریافت کردم که طولانیتر و مرتبتر از معمول به نظر میرسید، در ابتدا دلگرم شدم. پیام لحن مهربانی داشت و طولانی بودنش به من این حس را میداد که او وقت گذاشته و روی تمام نکات ایمیل تأمل کرده است.
وی در ادامه افزود: اما با کمی دقت بیشتر، ایمیل او کمی عجیب به نظر میرسید. فونت آن متفاوت بود و چندین نشانه آشنا از متن تولیدشده توسط هوش مصنوعی در آن دیده میشد. وقتی متوجه شدم که احتمالاً چتجیپیتی در نگارش پیام نقش داشته است؛ احساس مثبت من خیلی زود رنگ باخت و جای خود را به ناامیدی و بیاعتمادی داد و هنگامی که از درمانگرم در امورد پرسیدم، فرضیه من را تأیید کرد.
کلارک همچنین گفت: با وجود اینکه او اطمینان داد صرفاً برای نوشتن ایمیلهای طولانیتر از هوش مصنوعی کمک میگیرد، من همچنان نسبت به اینکه چه میزان از احساسات بیانشده واقعاً از سوی خودش بوده و چه مقدار از طرف ربات، دچار تردید بودم. همچنین نتوانستم این سوظن را کاملاً کنار بگذارم که شاید او ایمیل بسیار شخصی مرا بهطور کامل در چتجیپیتی کپی کرده باشد. وقتی در اینترنت جستوجو کردم تا ببینم آیا دیگران هم تجربه مشابهی داشتهاند، با نمونههای متعددی روبهرو شدم از افرادی که تصور میکردند پیامهای دریافتی از درمانگرانشان توسط هوش مصنوعی تولید شده است.
معضل افشاگری
شاید این استدلال بیراه نباشد که هوش مصنوعی میتواند به درمانگران در برقراری ارتباط با مراجعان کمک کند. در یک مطالعه در سال ۲۰۲۵ که در نشریه «PLOS Mental Health» منتشر شد، از درمانگران خواسته شد با استفاده از چتجیپیتی به نمونه مشکلاتی که بیماران ممکن است در جلسات درمان مطرح کنند، پاسخ دهند. نتیجه شگفتانگیز بود؛ نهتنها جمعی متشکل از ۸۳۰ شرکتکننده نتوانست بین پاسخهای انسانی و پاسخهای تولیدشده توسط هوش مصنوعی تفاوتی قائل شود، بلکه پاسخهای هوش مصنوعی حتی بیش از پاسخهای انسانی با اصول شناختهشده رواندرمانی مطابقت داشتند.
با این حال، وقتی شرکتکنندگان حدس میزدند پاسخها توسط چتجیپیتی نوشته شده باشد، آنها را سطح پایینتر ارزیابی میکردند. جالب آنکه پاسخهای چتجیپیتی که به درمانگران نسبت داده شده بودند، بالاترین امتیاز را در کل دریافت کردند.
بهطور مشابه، پژوهشگران دانشگاه کُرنل در یک مطالعه در سال ۲۰۲۳ دریافتند که پیامهای تولیدشده توسط هوش مصنوعی در صورتی که دریافتکننده از نقش هوش مصنوعی بیاطلاع باشد؛ میتواند احساس صمیمیت و همکاری را میان طرفین گفتوگو افزایش دهد. این در حالی است که صرفِ گمان بردن به استفاده از هوش مصنوعی کافی بود تا حسن نیت بهسرعت از بین برود.
آدریان آگویلرا، روانشناس بالینی و استاد دانشگاه کالیفرنیا، برکلی میگوید: مردم بهویژه در مواردی چون رواندرمانی به اصالت اهمیت میدهند. فکر میکنم استفاده از هوش مصنوعی میتواند این حس را ایجاد کند که شخص رابطه را جدی نمیگیرد. آیا من باید پاسخ همسر یا فرزندانم را با چتجیپیتی بدهم؟ این رابطه به هیچ وجه واقعی به نظر نمیرسد.
در سال ۲۰۲۳ و در روزهای آغازین ظهور هوش مصنوعی مولد، سرویس درمان آنلاین «Koko» یک آزمایش پنهانی روی کاربران خود انجام داد. این پلتفرم پاسخهای تولیدشده توسط «GPT-۳» را با پاسخهای نوشتهشده توسط انسان ترکیب کرد. نتیجه نشان داد که کاربران تمایل داشتند پاسخهای تولیدشده توسط هوش مصنوعی را مثبتتر ارزیابی کنند. اما افشای اینکه کاربران ناخواسته در معرض یک آزمایش قرار گرفتهاند، خشم گستردهای را برانگیخت.
آگویلرا معتقد است درمانگرانی که با کمبود وقت مواجه هستند میتوانند از مدلهای زبانی بزرگ بهره ببرند، اما شفافیت در این زمینه حیاتی است. او معتقد است که رواندرمانگران باید صادق باشند و به افراد بگویند که قصد دارند از این ابزار برای برخی مقاصد استفاده کنند و دلیل این تصمیم را نیز توضیح دهند. در این صورت، افراد پیامهای تولیدشده توسط هوش مصنوعی را در همان بستر و با آن زمینه دریافت میکنند.
بر اساس نتایج پژوهشی که در سال ۲۰۲۳ توسط انجمن روانشناسی آمریکا انجام شد، روانشناسان اغلب در آستانه ظرفیت کاری خود فعالیت میکنند و میزان فرسودگی شغلی در این حرفه بالاست. همین بستر است که جذابیت ابزارهای مبتنی بر هوش مصنوعی را آشکار میسازد. با این وجود، عدم شفافیت خطر تخریب دائمی اعتماد را به همراه دارد.
به خطر افتادن حریم خصوصی بیماران
مارگارت موریس، روانشناس بالینی و عضو وابسته هیئتعلمی دانشگاه واشنگتن، میگوید: فراتر از مسئله شفافیت، بسیاری از درمانگران اساساً نسبت به استفاده از مدلهای زبانی بزرگ مردد هستند. وی معتقد است که این ابزارها میتوانند برای یادگیری واقعاً ارزشمند باشند و تأکید میکند که درمانگران باید در طول دوران حرفهای خود همچنان به توسعه مهارتهایشان ادامه دهند.
پردیس امامی نائینی، استادیار علوم کامپیوتر در دانشگاه دوک که درباره پیامدهای حریم خصوصی و امنیتی مدلهای زبانی بزرگ در حوزه سلامت تحقیق کرده است نیز توصیه میکند: درمانگران باید بدانند که چتباتهای عمومی مانند چتجیپیتی نه توسط سازمان غذا و داروی آمریکا تأیید شدهاند و نه با مقررات قانون «قابلیت انتقال و پاسخگویی بیمه سلامت»[۱] سازگار هستند. این قانون مجموعهای از مقررات فدرال در ایالات متحده است که از اطلاعات حساس سلامت افراد محافظت میکند. امامی نائینی همچنین گفت: این موضوع، اگر هرگونه اطلاعاتی درباره بیمار افشا شود یا توسط هوش مصنوعی قابل استنتاج باشد، خطرات قابلتوجهی برای حریم خصوصی بیماران ایجاد میکند.
استادیار علوم کامپیوتر دانشگاه دوک در یک مقاله اخیر دریافت که بسیاری از کاربران بهاشتباه تصور میکنند چتجیپیتی با قانون قابلیت انتقال و مسئولیت بیمه سلامت سازگار است و همین امر نوعی اعتماد بیجا به این ابزار ایجاد میکند. وی میگوید: وقتی برای کمک در ایمیلنویسی از هوش مصنوعی استفاده میشود، موضوع به این سادگی نیست که فقط نامها و آدرسها حذف شوند. اطلاعات حساس اغلب میتواند از جزئیاتی ظاهراً غیرحساس، استنتاج شود. او همچنین اضافه میکند: شناسایی و بازنویسی تمام دادههای بالقوه حساس نیازمند زمان و تخصص است؛ چیزی که ممکن است با هدف اصلیِ سهولت استفاده از ابزارهای هوش مصنوعی در تضاد باشد. در هر صورت، درمانگران باید استفاده از هوش مصنوعی را به بیماران اطلاع دهند و رضایت آنها را جلب کنند.
از سوی دیگر، تعداد فزایندهای از شرکتها، از جمله «Heidi Health» و «Up heal» و «Lyssn» و «Blueprint»، در حال عرضه ابزارهای تخصصی مانند یادداشتبرداری با کمک هوش مصنوعی، آموزش و خدمات رونویسی برای درمانگران هستند. این شرکتها ادعا میکنند با قانون قابلیت انتقال و مسئولیت بیمه سلامت سازگار هستند و دادهها را با استفاده از رمزنگاری و در صورت لزوم با بهرهگیری از مستعارسازی به صورت ایمن ذخیره میکنند. با این حال، بسیاری از درمانگران همچنان نسبت به پیامدهای حریم خصوصی ابزارهای مذکور محتاط هستند. امامی نائینی میگوید: حتی اگر حفاظتهای حریم خصوصی بهبود یابند، همیشه مقداری خطر نشت اطلاعات یا استفاده ثانویه از دادهها وجود دارد.
یک حمله سایبری در سال ۲۰۲۰ به یک شرکت سلامت روان در فنلاند که منجر به دسترسی به پروندههای درمانی دهها هزار مراجعهکننده شد، نمونهای از این موارد است. نام افراد در فهرست بهعنوان ابزار اخاذی به کار گرفته شد و در نهایت کل دادهها به صورت عمومی منتشر شد؛ دادههایی که شامل جزئیات فوقالعاده حساسی از جمله تجربه سوءاستفاده جنسی در کودکی و اعتیاد افراد بود.
آنچه درمانگران در معرض از دست دادن آن هستند
علاوه بر نقض حریم خصوصی دادهها، استفاده رواندرمانگران از مدلهای زبانی بزرگ به نمایندگی از یک بیمار، خطرات دیگری نیز به همراه دارد. پژوهشها نشان دادهاند که هرچند پاسخهای برخی رباتهای تخصصی درمانی میتواند با مداخلات انسانی برابری کند، اما توصیههایی از جنس چتجیپیتی ممکن است بیش از آنکه مفید باشند، آسیبزا ظاهر شوند.
بهعنوان نمونه، مطالعه اخیر دانشگاه استنفورد نشان داد که چتباتها میتوانند با تأیید کورکورانه کاربران بهجای به چالش کشیدن آنها به تقویت توهمات و حتی رفتارهای روانآزاری دامن بزنند. این پژوهش همچنین دریافت که رباتها میتوانند دچار سوگیری شوند و رفتار متملقانه از خود نشان دهند. همین کاستیها باعث میشود که استفاده درمانگران از چتباتها به نمایندگی از بیمارانشان خطرناک باشد. برای مثال، این فناوری ممکن است یک حدس بیاساس را تأیید کند یا درمانگر را به مسیر اشتباهی بکشاند.
آگویلرا میگوید هنگام آموزش کارآموزان سلامت روان با ابزارهایی مانند چتجیپیتی تعامل داشته و گاهی علائم فرضی را وارد میکرده و از چتبات میخواسته تشخیص بدهند. او میگوید این ابزار فهرست بلندی از شرایط احتمالی ارائه میدهد، اما تحلیلی سطحی دارد. انجمن مشاوره آمریکا نیز توصیه میکند که در حال حاضر از هوش مصنوعی برای تشخیص مشکلات سلامت روان استفاده نشود.
یک مطالعه منتشرشده در سال ۲۰۲۴ روی نسخهای پیشین از چتجیپیتی نیز به همین نتیجه رسید. بر اساس نتایج این پژوهش، پاسخهای ابزار مذکور برای تشخیص یا تدوین برنامههای درمانی بیش از حد مبهم و کلی است و بهشدت به سمت توصیه درمان شناختی ـ رفتاری (CBT) گرایش دارد، درحالیکه انواع دیگر درمان که شاید مناسبتر باشند را کمتر در نظر میگیرد.
دانیل کیمل، روانپزشک و عصبپژوه در دانشگاه کلمبیا، آزمایشهایی با چتجیپیتی انجام داد و در آن نقش یک مراجع با مشکلات روانی را بازی کرد. او در جریان تحقیقات خود دریافت که این چتبات در ارائه پاسخهای رایج درمانی مثل عادیسازی و تأیید احساسات، درخواست اطلاعات بیشتر یا برجسته کردن برخی ارتباطهای شناختی یا عاطفی، ابزاری تقلیدکننده است.
او میگوید چتجیپیتی خیلی وارد عمق مسئله نمیشد. این ابزار تلاشی برای پیوند دادن چیزهایی که بهظاهر یا بهطور سطحی بیارتباط بودند و تبدیل آنها به یک روایت منسجم، خلق یک داستان، ایده یا نظریه نمیکرد. وی همچنین ادامه میدهد: «من نسبت به استفاده از آن برای فکر کردن بهجای شما بدبینم. تفکر باید کار درمانگران باشد.»
موریس میگوید: درمانگران میتوانند با استفاده از فناوریهای مجهز به هوش مصنوعی در وقت صرفهجویی کنند، اما این منفعت باید در برابر نیازهای بیماران سنجیده شود. شاید روانشناسان چند دقیقه برای خودت ذخیره کنند؛ اما در عوض چه چیزی را از دست میدهند؟

تیتر خبرها
تیترهای روزنامه
-
راهکار عبور از وضعیت نه جنگ نه صلح
-
اروپا به دنبال برهم زدن ثبات و آرامش منطقه است
-
اروپاییها برای جبران شکست اسرائیل سیاست تنش را برگزیدند
-
شورای همکاری در دام سیاستهای غربی
-
سلاح مقاومت تضمین امنیت لبنان است
-
پردهبرداری از استیصال شیطان
-
تبلیغات چگونه ذهن ما را تسخیر میکند؟
-
توسعه صنعت با انرژی خورشیدی سقفی
-
نفوذ هوش مصنوعی در رواندرمانگری