وقتی تراپیست ها هم به ChatGPT روی می آورند

...

رشد سریع هوش مصنوعی و ابزارهایی مانند ChatGPT تأثیرات گسترده‌ای بر حوزه‌های مختلف گذاشته است. یکی از عرصه‌هایی که کمتر مورد توجه عمومی بوده، روان‌درمانی و مشاوره روانشناسی است. در حالی که بسیاری از افراد برای حل مشکلات روحی و عاطفی خود به درمانگران مراجعه می‌کنند، برخی بیماران اخیراً با واقعیت عجیبی روبه‌رو شده‌اند: استفاده پنهانی درمانگران از ChatGPT در جلسات یا مکاتبات. این موضوع پرسش‌های مهمی درباره اعتماد، شفافیت و حریم خصوصی به میان آورده است.

تجربه شوکه‌کننده بیماران

ماجرای «دکلان» از لس‌آنجلس نمونه‌ای روشن است. او در یکی از جلسات آنلاین درمانی، به دلیل مشکل اینترنت، درمانگرش مجبور شد صفحه خود را به اشتراک بگذارد. دکلان با ناباوری دید که درمانگر جملات او را در ChatGPT کپی می‌کند و سپس پاسخ‌های آماده را بازگو می‌کند. او می‌گوید: «انگار تبدیل به بهترین بیمار دنیا شده بودم چون دقیقاً همان جملاتی را تکرار می‌کردم که ChatGPT پیشنهاد داده بود!» هرچند این تجربه برای او خنده‌دار به نظر می‌رسید، اما پرسش مهمی در ذهنش شکل گرفت: آیا این کار قانونی است؟

نمونه دیگر، «هوپ» از سواحل شرقی آمریکا بود که پس از مرگ سگش به درمانگر پیام داد. پاسخ دریافتی در ظاهر دلگرم‌کننده بود، اما بخشی از دستورالعمل ChatGPT («نسخه‌ای انسانی‌تر و صمیمانه‌تر») به اشتباه در متن باقی مانده بود. این موضوع باعث احساس خیانت و بی‌اعتمادی در او شد؛ مخصوصاً که یکی از مشکلات اصلی‌اش مسائل اعتماد بود. همچنین برخی بیماران در شبکه‌هایی مثل ردیت تجربه‌های مشابهی را به اشتراک گذاشته‌اند. حتی کسانی که درمانگرشان تنها بخشی از ایمیل‌ها یا پاسخ‌ها را با کمک ChatGPT نوشته‌اند، از حس سردی، بی‌اعتمادی و غیرانسانی بودن شکایت داشته‌اند.

 

هوش مصنوعی در روانکاوی

 

مطالعات علمی درباره استفاده از هوش مصنوعی در درمان

تحقیقات نشان می‌دهد که پاسخ‌های ChatGPT گاهی از استانداردهای درمانی بهتر تبعیت می‌کند. در مطالعه‌ای در سال ۲۰۲۵، گروهی از افراد نتوانستند تفاوتی میان پاسخ درمانگران و ChatGPT تشخیص دهند، حتی بعضی پاسخ‌های AI را مناسب‌تر دانستند. اما نکته مهم اینجاست: وقتی بیماران به استفاده از ChatGPT مشکوک شدند، کیفیت در نظرشان پایین آمد. در واقع، صرفِ آگاهی از دخالت هوش مصنوعی می‌تواند رابطه درمانی را تضعیف کند.

مسئله اعتماد و حریم خصوصی

کارشناسان معتقدند بزرگ‌ترین مشکل، عدم شفافیت و خطر نقض حریم خصوصی است. ChatGPT و مدل‌های مشابه، HIPAA (قوانین فدرال آمریکا برای حفاظت از اطلاعات سلامت) را رعایت نمی‌کنند. این یعنی هر داده‌ای که درمانگر به هوش مصنوعی بدهد، می‌تواند در معرض سوءاستفاده یا نشت اطلاعات قرار گیرد. نمونه‌ای از این خطر، هک گسترده شرکت روان‌درمانی در فنلاند بود که اطلاعات محرمانه هزاران بیمار افشا شد.«پردیس امامی‌نائینی» استاد دانشگاه دوک می‌گوید: بسیاری تصور می‌کنند ChatGPT ایمن و قانونی است، در حالی که چنین نیست. حتی اگر نام و آدرس بیمار حذف شود، باز هم جزئیات کوچک می‌توانند اطلاعات حساس را آشکار کنند.

ابزارهای جایگزین و آینده درمان با هوش مصنوعی

شرکت‌های متعددی مثل Heidi Health، Upheal و Blueprint در حال طراحی ابزارهای تخصصی برای درمانگران هستند که مدعی رعایت قوانین حریم خصوصی‌اند. این ابزارها بیشتر برای یادداشت‌برداری، آموزش یا تحلیل جلسه به کار می‌روند، نه جایگزین مستقیم ارتباط انسانی. با این حال، حتی این فناوری‌ها هم بدون ریسک نیستند. از سوی دیگر، پژوهش‌های دانشگاه استنفورد نشان داده‌اند که چت‌بات‌ها ممکن است توهمات بیماران را تقویت کنند یا بیش از حد با آنها موافقت کنند، که می‌تواند روند درمان را منحرف کند. متخصصان تأکید می‌کنند: وظیفه «فکر کردن» و تحلیل باید با انسان بماند، نه هوش مصنوعی.

 

هوش مصنوعی در روانکاوی

 

خط باریک میان کمک و خیانت

برای درمانگران، وسوسه استفاده از ChatGPT طبیعی است؛ فشار کاری بالا و خستگی شغلی آنها را به سمت این ابزارها سوق می‌دهد. اما هزینه پنهان این کار می‌تواند از دست رفتن اعتماد بیماران باشد؛ چیزی که اساس هر درمان موفقی است. به گفته «آدریان آگیلرا» استاد دانشگاه برکلی: «اگر از ChatGPT برای پاسخ به بیمار استفاده کنیم، باید شفاف بگوییم چرا و چگونه. در غیر این صورت، رابطه درمانی به خطر می‌افتد.» در نهایت، هوش مصنوعی می‌تواند ابزار مفیدی برای آموزش و کمک به روانشناسان باشد، اما استفاده پنهانی از آن در ارتباط مستقیم با بیمار، نه‌تنها اخلاقی نیست، بلکه می‌تواند اعتماد، حریم خصوصی و حتی سلامت روان بیماران را تهدید کند.

منبع خبر: technologyreview

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟