
رشد سریع هوش مصنوعی و ابزارهایی مانند ChatGPT تأثیرات گستردهای بر حوزههای مختلف گذاشته است. یکی از عرصههایی که کمتر مورد توجه عمومی بوده، رواندرمانی و مشاوره روانشناسی است. در حالی که بسیاری از افراد برای حل مشکلات روحی و عاطفی خود به درمانگران مراجعه میکنند، برخی بیماران اخیراً با واقعیت عجیبی روبهرو شدهاند: استفاده پنهانی درمانگران از ChatGPT در جلسات یا مکاتبات. این موضوع پرسشهای مهمی درباره اعتماد، شفافیت و حریم خصوصی به میان آورده است.
تجربه شوکهکننده بیماران
ماجرای «دکلان» از لسآنجلس نمونهای روشن است. او در یکی از جلسات آنلاین درمانی، به دلیل مشکل اینترنت، درمانگرش مجبور شد صفحه خود را به اشتراک بگذارد. دکلان با ناباوری دید که درمانگر جملات او را در ChatGPT کپی میکند و سپس پاسخهای آماده را بازگو میکند. او میگوید: «انگار تبدیل به بهترین بیمار دنیا شده بودم چون دقیقاً همان جملاتی را تکرار میکردم که ChatGPT پیشنهاد داده بود!» هرچند این تجربه برای او خندهدار به نظر میرسید، اما پرسش مهمی در ذهنش شکل گرفت: آیا این کار قانونی است؟
نمونه دیگر، «هوپ» از سواحل شرقی آمریکا بود که پس از مرگ سگش به درمانگر پیام داد. پاسخ دریافتی در ظاهر دلگرمکننده بود، اما بخشی از دستورالعمل ChatGPT («نسخهای انسانیتر و صمیمانهتر») به اشتباه در متن باقی مانده بود. این موضوع باعث احساس خیانت و بیاعتمادی در او شد؛ مخصوصاً که یکی از مشکلات اصلیاش مسائل اعتماد بود. همچنین برخی بیماران در شبکههایی مثل ردیت تجربههای مشابهی را به اشتراک گذاشتهاند. حتی کسانی که درمانگرشان تنها بخشی از ایمیلها یا پاسخها را با کمک ChatGPT نوشتهاند، از حس سردی، بیاعتمادی و غیرانسانی بودن شکایت داشتهاند.
مطالعات علمی درباره استفاده از هوش مصنوعی در درمان
تحقیقات نشان میدهد که پاسخهای ChatGPT گاهی از استانداردهای درمانی بهتر تبعیت میکند. در مطالعهای در سال ۲۰۲۵، گروهی از افراد نتوانستند تفاوتی میان پاسخ درمانگران و ChatGPT تشخیص دهند، حتی بعضی پاسخهای AI را مناسبتر دانستند. اما نکته مهم اینجاست: وقتی بیماران به استفاده از ChatGPT مشکوک شدند، کیفیت در نظرشان پایین آمد. در واقع، صرفِ آگاهی از دخالت هوش مصنوعی میتواند رابطه درمانی را تضعیف کند.
مسئله اعتماد و حریم خصوصی
کارشناسان معتقدند بزرگترین مشکل، عدم شفافیت و خطر نقض حریم خصوصی است. ChatGPT و مدلهای مشابه، HIPAA (قوانین فدرال آمریکا برای حفاظت از اطلاعات سلامت) را رعایت نمیکنند. این یعنی هر دادهای که درمانگر به هوش مصنوعی بدهد، میتواند در معرض سوءاستفاده یا نشت اطلاعات قرار گیرد. نمونهای از این خطر، هک گسترده شرکت رواندرمانی در فنلاند بود که اطلاعات محرمانه هزاران بیمار افشا شد.«پردیس امامینائینی» استاد دانشگاه دوک میگوید: بسیاری تصور میکنند ChatGPT ایمن و قانونی است، در حالی که چنین نیست. حتی اگر نام و آدرس بیمار حذف شود، باز هم جزئیات کوچک میتوانند اطلاعات حساس را آشکار کنند.
ابزارهای جایگزین و آینده درمان با هوش مصنوعی
شرکتهای متعددی مثل Heidi Health، Upheal و Blueprint در حال طراحی ابزارهای تخصصی برای درمانگران هستند که مدعی رعایت قوانین حریم خصوصیاند. این ابزارها بیشتر برای یادداشتبرداری، آموزش یا تحلیل جلسه به کار میروند، نه جایگزین مستقیم ارتباط انسانی. با این حال، حتی این فناوریها هم بدون ریسک نیستند. از سوی دیگر، پژوهشهای دانشگاه استنفورد نشان دادهاند که چتباتها ممکن است توهمات بیماران را تقویت کنند یا بیش از حد با آنها موافقت کنند، که میتواند روند درمان را منحرف کند. متخصصان تأکید میکنند: وظیفه «فکر کردن» و تحلیل باید با انسان بماند، نه هوش مصنوعی.
خط باریک میان کمک و خیانت
برای درمانگران، وسوسه استفاده از ChatGPT طبیعی است؛ فشار کاری بالا و خستگی شغلی آنها را به سمت این ابزارها سوق میدهد. اما هزینه پنهان این کار میتواند از دست رفتن اعتماد بیماران باشد؛ چیزی که اساس هر درمان موفقی است. به گفته «آدریان آگیلرا» استاد دانشگاه برکلی: «اگر از ChatGPT برای پاسخ به بیمار استفاده کنیم، باید شفاف بگوییم چرا و چگونه. در غیر این صورت، رابطه درمانی به خطر میافتد.» در نهایت، هوش مصنوعی میتواند ابزار مفیدی برای آموزش و کمک به روانشناسان باشد، اما استفاده پنهانی از آن در ارتباط مستقیم با بیمار، نهتنها اخلاقی نیست، بلکه میتواند اعتماد، حریم خصوصی و حتی سلامت روان بیماران را تهدید کند.
منبع خبر: technologyreview
پاسخ :