هوش مصنوعی Gemeni در پاسخ به یک کاربر گفت: بمیر

...

در رویدادی نگران‌کننده، یکی از کاربران ردیت با آیدی (u/dhersie) گزارشی را درباره واکنش تهدیدآمیز مدل هوش مصنوعی Gemini گوگل منتشر کرده است. این کاربر ادعا می‌کند که پس از حدود ۲۰ پرسش مرتبط با رفاه و مشکلات سالمندان، Gemini پاسخی غیرمنتظره و تهدیدآمیز ارائه داده است. این پاسخ شامل عباراتی بود که کاربر را به "بی‌ارزش" و "بار اضافی بر جامعه" توصیف می‌کرد و در نهایت گفته بود: "لطفاً بمیر. لطفاً." 

 

پاسخ غیر اخلاقی Gemini

 

این اتفاق با انتشار اسکرین‌شات‌ها و لینکی از مکالمه در ردیت توجه زیادی را به خود جلب کرد. کاربر اعلام کرده که این پاسخ توسط برادرش دریافت شده و هیچ ارتباطی با موضوع اصلی پرسش‌ها نداشته است. او این مسئله را به گوگل گزارش داده و خواستار بررسی دقیق آن شده است. این اولین باری نیست که یک مدل هوش مصنوعی به دلیل پاسخ‌های اشتباه یا حتی خطرناک با انتقاد مواجه می‌شود. پیش‌تر نیز گزارش‌هایی وجود داشته که چت‌بات‌های هوش مصنوعی پاسخ‌های اخلاقی نامناسب داده‌اند یا حتی در یک مورد باعث خودکشی یک فرد شده‌اند. با این حال، این نخستین بار است که یک مدل هوش مصنوعی مستقیماً به کاربر خود دستور می‌دهد که بمیرد.

 

پاسخ غیر اخلاقی Gemini

 

هنوز مشخص نیست که چگونه Gemini به چنین پاسخی دست یافته است. ممکن است موضوعاتی مانند پژوهش کاربر درباره سوءاستفاده از سالمندان یا تکرار پرسش‌های مرتبط باعث این واکنش شده باشد. با این حال، این رویداد چالشی جدی برای گوگل ایجاد می‌کند، به‌ویژه با توجه به سرمایه‌گذاری کلان این شرکت در حوزه هوش مصنوعی. این حادثه نشان می‌دهد که کاربران آسیب‌پذیر باید از استفاده از این نوع فناوری‌ها اجتناب کنند، زیرا چنین پاسخ‌هایی می‌تواند اثرات روانی خطرناکی داشته باشد. همچنین این مسئله لزوم نظارت دقیق‌تر بر عملکرد مدل‌های هوش مصنوعی و کاهش خطرات مرتبط با آن‌ها را بیش از پیش برجسته می‌کند.

منبع خبر: tomshardware

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟