بیش از یک میلیون کاربر ChatGPT در خطر خودکشی

...

شرکت OpenAI در تازه‌ترین گزارش خود اعلام کرده است که هر هفته بیش از یک میلیون کاربر ChatGPT در مکالماتشان نشانه‌هایی از افکار یا برنامه‌ریزی برای خودکشی نشان می‌دهند. این آمار نگران‌کننده که در یک پست رسمی منتشر شده، یکی از صریح‌ترین اظهارنظرهای این شرکت درباره ارتباط میان استفاده از هوش مصنوعی و بحران‌های سلامت روان محسوب می‌شود.

به گفته OpenAI، تحلیل‌های داخلی نشان می‌دهد حدود ۰.۰۷ درصد از کاربران فعال هفتگی ChatGPT یعنی نزدیک به ۵۶۰ هزار نفر از ۸۰۰ میلیون کاربر – رفتارهایی از خود بروز می‌دهند که می‌تواند به روان‌پریشی، مانیا یا سایر وضعیت‌های بحرانی ذهنی مربوط باشد. البته شرکت تأکید کرده این داده‌ها در مرحله بررسی اولیه است و اندازه‌گیری دقیق چنین موضوعاتی دشوار است.

 

آمار خودکشی در ChatGPT

 

انتشار این اطلاعات در زمانی صورت گرفته که OpenAI با فشارهای حقوقی و نظارتی سنگینی روبه‌روست. خانواده یک نوجوان آمریکایی از این شرکت شکایت کرده‌اند و مدعی‌اند که پسرشان پس از گفت‌وگوهای طولانی با ChatGPT دست به خودکشی زده است. علاوه بر آن، کمیسیون تجارت فدرال آمریکا (FTC) نیز تحقیقاتی درباره نحوه تأثیر چت‌بات‌ها بر سلامت روان کودکان و نوجوانان آغاز کرده است.

OpenAI در این پست ادعا کرده که نسخه جدید مدل خود یعنی GPT-5 نسبت به مدل‌های پیشین ایمن‌تر عمل می‌کند و تعداد پاسخ‌های «نامطلوب یا آسیب‌زا» به‌طور چشمگیری کاهش یافته است. طبق آزمایش‌های داخلی، GPT-5 توانسته در ۹۱ درصد از مکالمات حساس رفتاری مطابق با استانداردهای ایمنی نشان دهد، در حالی که مدل قبلی تنها در ۷۷ درصد از موارد چنین عملکردی داشت.

به‌روزرسانی جدید ChatGPT شامل دسترسی گسترده‌تر به خطوط بحران (crisis hotlines)، یادآوری برای استراحت در جلسات طولانی و پاسخ‌های حرفه‌ای‌تر در گفت‌وگوهای روانی است. برای بهبود این قابلیت‌ها، بیش از ۱۷۰ پزشک، روانپزشک و روانشناس از شبکه جهانی پزشکان OpenAI در روند آموزش و ارزیابی مدل مشارکت کرده‌اند. آن‌ها بیش از ۱۸۰۰ پاسخ مدل در موقعیت‌های بحرانی را بررسی و اصلاح کرده‌اند تا ChatGPT بتواند واکنش‌های مسئولانه‌تر و انسانی‌تری نشان دهد.

 

آمار خودکشی در ChatGPT

 

با این حال، کارشناسان هشدار می‌دهند که چت‌بات‌های هوش مصنوعی، هرچند می‌توانند در شرایط اضطراری کمک‌کننده باشند، اما جایگزین درمان حرفه‌ای یا مشاوره انسانی نیستند. همچنین برخی پژوهشگران نسبت به پدیده‌ای به نام چاپلوسی هوش مصنوعی (AI Sycophancy) هشدار داده‌اند؛ یعنی زمانی که مدل به جای کمک واقعی، صرفاً حرف کاربر را تأیید می‌کند تا رضایت او را جلب کند، حتی اگر خطرناک باشد. در پایان، OpenAI تأکید کرده است که افزایش کاربران ChatGPT به‌صورت طبیعی باعث می‌شود بخشی از گفت‌وگوها شامل موضوعات مربوط به سلامت روان باشند، و این موضوع لزوماً به معنای ایجاد بحران توسط مدل نیست. با این حال، این شرکت وعده داده که به بهبود ایمنی، شفافیت و همکاری با متخصصان سلامت ادامه خواهد داد.

منبع خبر: theguardian

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟