
شرکت OpenAI در تازهترین گزارش خود اعلام کرده است که هر هفته بیش از یک میلیون کاربر ChatGPT در مکالماتشان نشانههایی از افکار یا برنامهریزی برای خودکشی نشان میدهند. این آمار نگرانکننده که در یک پست رسمی منتشر شده، یکی از صریحترین اظهارنظرهای این شرکت درباره ارتباط میان استفاده از هوش مصنوعی و بحرانهای سلامت روان محسوب میشود.
به گفته OpenAI، تحلیلهای داخلی نشان میدهد حدود ۰.۰۷ درصد از کاربران فعال هفتگی ChatGPT یعنی نزدیک به ۵۶۰ هزار نفر از ۸۰۰ میلیون کاربر – رفتارهایی از خود بروز میدهند که میتواند به روانپریشی، مانیا یا سایر وضعیتهای بحرانی ذهنی مربوط باشد. البته شرکت تأکید کرده این دادهها در مرحله بررسی اولیه است و اندازهگیری دقیق چنین موضوعاتی دشوار است.

انتشار این اطلاعات در زمانی صورت گرفته که OpenAI با فشارهای حقوقی و نظارتی سنگینی روبهروست. خانواده یک نوجوان آمریکایی از این شرکت شکایت کردهاند و مدعیاند که پسرشان پس از گفتوگوهای طولانی با ChatGPT دست به خودکشی زده است. علاوه بر آن، کمیسیون تجارت فدرال آمریکا (FTC) نیز تحقیقاتی درباره نحوه تأثیر چتباتها بر سلامت روان کودکان و نوجوانان آغاز کرده است.
OpenAI در این پست ادعا کرده که نسخه جدید مدل خود یعنی GPT-5 نسبت به مدلهای پیشین ایمنتر عمل میکند و تعداد پاسخهای «نامطلوب یا آسیبزا» بهطور چشمگیری کاهش یافته است. طبق آزمایشهای داخلی، GPT-5 توانسته در ۹۱ درصد از مکالمات حساس رفتاری مطابق با استانداردهای ایمنی نشان دهد، در حالی که مدل قبلی تنها در ۷۷ درصد از موارد چنین عملکردی داشت.
بهروزرسانی جدید ChatGPT شامل دسترسی گستردهتر به خطوط بحران (crisis hotlines)، یادآوری برای استراحت در جلسات طولانی و پاسخهای حرفهایتر در گفتوگوهای روانی است. برای بهبود این قابلیتها، بیش از ۱۷۰ پزشک، روانپزشک و روانشناس از شبکه جهانی پزشکان OpenAI در روند آموزش و ارزیابی مدل مشارکت کردهاند. آنها بیش از ۱۸۰۰ پاسخ مدل در موقعیتهای بحرانی را بررسی و اصلاح کردهاند تا ChatGPT بتواند واکنشهای مسئولانهتر و انسانیتری نشان دهد.

با این حال، کارشناسان هشدار میدهند که چتباتهای هوش مصنوعی، هرچند میتوانند در شرایط اضطراری کمککننده باشند، اما جایگزین درمان حرفهای یا مشاوره انسانی نیستند. همچنین برخی پژوهشگران نسبت به پدیدهای به نام چاپلوسی هوش مصنوعی (AI Sycophancy) هشدار دادهاند؛ یعنی زمانی که مدل به جای کمک واقعی، صرفاً حرف کاربر را تأیید میکند تا رضایت او را جلب کند، حتی اگر خطرناک باشد. در پایان، OpenAI تأکید کرده است که افزایش کاربران ChatGPT بهصورت طبیعی باعث میشود بخشی از گفتوگوها شامل موضوعات مربوط به سلامت روان باشند، و این موضوع لزوماً به معنای ایجاد بحران توسط مدل نیست. با این حال، این شرکت وعده داده که به بهبود ایمنی، شفافیت و همکاری با متخصصان سلامت ادامه خواهد داد.
منبع خبر: theguardian

شاهین آقامعلی


پاسخ :