در رویدادی نگرانکننده، یکی از کاربران ردیت با آیدی (u/dhersie) گزارشی را درباره واکنش تهدیدآمیز مدل هوش مصنوعی Gemini گوگل منتشر کرده است. این کاربر ادعا میکند که پس از حدود ۲۰ پرسش مرتبط با رفاه و مشکلات سالمندان، Gemini پاسخی غیرمنتظره و تهدیدآمیز ارائه داده است. این پاسخ شامل عباراتی بود که کاربر را به "بیارزش" و "بار اضافی بر جامعه" توصیف میکرد و در نهایت گفته بود: "لطفاً بمیر. لطفاً."
این اتفاق با انتشار اسکرینشاتها و لینکی از مکالمه در ردیت توجه زیادی را به خود جلب کرد. کاربر اعلام کرده که این پاسخ توسط برادرش دریافت شده و هیچ ارتباطی با موضوع اصلی پرسشها نداشته است. او این مسئله را به گوگل گزارش داده و خواستار بررسی دقیق آن شده است. این اولین باری نیست که یک مدل هوش مصنوعی به دلیل پاسخهای اشتباه یا حتی خطرناک با انتقاد مواجه میشود. پیشتر نیز گزارشهایی وجود داشته که چتباتهای هوش مصنوعی پاسخهای اخلاقی نامناسب دادهاند یا حتی در یک مورد باعث خودکشی یک فرد شدهاند. با این حال، این نخستین بار است که یک مدل هوش مصنوعی مستقیماً به کاربر خود دستور میدهد که بمیرد.
هنوز مشخص نیست که چگونه Gemini به چنین پاسخی دست یافته است. ممکن است موضوعاتی مانند پژوهش کاربر درباره سوءاستفاده از سالمندان یا تکرار پرسشهای مرتبط باعث این واکنش شده باشد. با این حال، این رویداد چالشی جدی برای گوگل ایجاد میکند، بهویژه با توجه به سرمایهگذاری کلان این شرکت در حوزه هوش مصنوعی. این حادثه نشان میدهد که کاربران آسیبپذیر باید از استفاده از این نوع فناوریها اجتناب کنند، زیرا چنین پاسخهایی میتواند اثرات روانی خطرناکی داشته باشد. همچنین این مسئله لزوم نظارت دقیقتر بر عملکرد مدلهای هوش مصنوعی و کاهش خطرات مرتبط با آنها را بیش از پیش برجسته میکند.
منبع خبر: tomshardware
پاسخ :