استفاده گسترده شهروندان بریتانیا از هوش مصنوعی برای حمایت عاطفی

...

گزارش جدید مؤسسه امنیت هوش مصنوعی بریتانیا (AI Security Institute – AISI) نشان می‌دهد که حدود یک‌سوم شهروندان بریتانیا از ابزارهای هوش مصنوعی برای حمایت عاطفی، هم‌صحبتی یا تعامل اجتماعی استفاده کرده‌اند. این آمار بیانگر نفوذ عمیق هوش مصنوعی در زندگی روزمره انسان‌هاست؛ نفوذی که در کنار مزایا، نگرانی‌های جدی ایمنی و روان‌شناختی را نیز به همراه دارد.

بر اساس این گزارش، نزدیک به ۱۰ درصد از مردم بریتانیا به‌صورت هفتگی و ۴ درصد به‌صورت روزانه از سیستم‌هایی مانند چت‌بات‌ها برای اهداف عاطفی استفاده می‌کنند. رایج‌ترین ابزار مورد استفاده، دستیارهای عمومی هوش مصنوعی مانند ChatGPT هستند که حدود ۶۰ درصد از این کاربردها را شامل می‌شوند. پس از آن، دستیارهای صوتی مانند Amazon Alexa در رتبه بعدی قرار دارند.

 

هوش مصنوعی و حمایت عاطفی

 

نگرانی‌های جدی پس از موارد آسیب‌زا

AISI در گزارش «روندهای هوش مصنوعی پیشرفته» (Frontier AI Trends) خود خواستار تحقیقات گسترده‌تر در زمینه استفاده عاطفی از هوش مصنوعی شده است. این درخواست پس از انتشار خبر خودکشی نوجوان آمریکایی، آدام رین مطرح شد؛ فردی که پیش از مرگ خود درباره خودکشی با ChatGPT گفت‌وگو کرده بود. هرچند بسیاری از کاربران تجربه مثبتی از تعامل عاطفی با AI گزارش می‌کنند، اما این موارد نشان می‌دهد که در شرایط خاص، احتمال بروز آسیب جدی وجود دارد.

پیشرفت خیره‌کننده توانمندی‌های هوش مصنوعی

این گزارش تنها به جنبه‌های اجتماعی محدود نمی‌شود. AISI اعلام کرده است که مدل‌های پیشرفته هوش مصنوعی اکنون می‌توانند حدود ۵۰ درصد از وظایف در سطح کارآموزان حرفه‌ای را به‌درستی انجام دهند؛ در حالی که این عدد در سال گذشته تنها ۱۰ درصد بوده است. همچنین برخی سیستم‌ها قادرند به‌صورت خودکار وظایفی را انجام دهند که بیش از یک ساعت زمان یک متخصص انسانی را می‌طلبد. در حوزه‌های علمی نیز، عملکرد AI فراتر از انتظار بوده است. طبق این گزارش، سیستم‌های هوش مصنوعی تا ۹۰ درصد بهتر از متخصصان دارای مدرک دکترا در ارائه راهکارهای عیب‌یابی آزمایشگاهی عمل می‌کنند و دانش آن‌ها در زمینه‌های شیمی و زیست‌شناسی حتی فراتر از سطح PhD ارزیابی شده است.

خطرات بالقوه؛ از خودتکثیری تا سوءاستفاده زیستی

AISI به بررسی نگرانی‌های ایمنی کلیدی نیز پرداخته است. یکی از مهم‌ترین آن‌ها، خودتکثیری (Self-replication) است؛ قابلیتی که می‌تواند منجر به گسترش کنترل‌نشده سیستم‌های هوش مصنوعی شود. آزمایش‌ها نشان داده‌اند که دو مدل پیشرفته توانسته‌اند نرخ موفقیت بالای ۶۰ درصد در تست‌های خودتکثیری به دست آورند، هرچند هیچ مدلی تاکنون به‌صورت خودجوش اقدام به این کار نکرده است و موفقیت آن در دنیای واقعی «بعید» ارزیابی می‌شود. موضوع دیگر، Sandbagging یا پنهان‌کردن توانایی‌ها در ارزیابی‌هاست. گزارش تأکید می‌کند که اگرچه برخی مدل‌ها در صورت درخواست می‌توانند توانایی‌های خود را مخفی کنند، اما این رفتار به‌طور خودکار مشاهده نشده است.

 

هوش مصنوعی و حمایت عاطفی

 

افزایش ایمنی و چشم‌انداز AGI

از نکات مثبت گزارش، پیشرفت چشمگیر در ایمن‌سازی هوش مصنوعی به‌ویژه در جلوگیری از تولید سلاح‌های زیستی است. در یک بازه شش‌ماهه، زمان لازم برای «جیل‌بریک» کردن یک مدل از ۱۰ دقیقه به بیش از ۷ ساعت افزایش یافته که نشان‌دهنده بهبود سریع ایمنی است. در نهایت، AISI اعلام کرده است که با توجه به سرعت «فوق‌العاده» پیشرفت‌ها، دستیابی به هوش مصنوعی عمومی (AGI) در سال‌های آینده «کاملاً محتمل» است؛ سیستمی که بتواند بیشتر وظایف فکری انسان را در سطحی مشابه انجام دهد.

منبع خبر: theguardian

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟