
گزارش جدید مؤسسه امنیت هوش مصنوعی بریتانیا (AI Security Institute – AISI) نشان میدهد که حدود یکسوم شهروندان بریتانیا از ابزارهای هوش مصنوعی برای حمایت عاطفی، همصحبتی یا تعامل اجتماعی استفاده کردهاند. این آمار بیانگر نفوذ عمیق هوش مصنوعی در زندگی روزمره انسانهاست؛ نفوذی که در کنار مزایا، نگرانیهای جدی ایمنی و روانشناختی را نیز به همراه دارد.
بر اساس این گزارش، نزدیک به ۱۰ درصد از مردم بریتانیا بهصورت هفتگی و ۴ درصد بهصورت روزانه از سیستمهایی مانند چتباتها برای اهداف عاطفی استفاده میکنند. رایجترین ابزار مورد استفاده، دستیارهای عمومی هوش مصنوعی مانند ChatGPT هستند که حدود ۶۰ درصد از این کاربردها را شامل میشوند. پس از آن، دستیارهای صوتی مانند Amazon Alexa در رتبه بعدی قرار دارند.

نگرانیهای جدی پس از موارد آسیبزا
AISI در گزارش «روندهای هوش مصنوعی پیشرفته» (Frontier AI Trends) خود خواستار تحقیقات گستردهتر در زمینه استفاده عاطفی از هوش مصنوعی شده است. این درخواست پس از انتشار خبر خودکشی نوجوان آمریکایی، آدام رین مطرح شد؛ فردی که پیش از مرگ خود درباره خودکشی با ChatGPT گفتوگو کرده بود. هرچند بسیاری از کاربران تجربه مثبتی از تعامل عاطفی با AI گزارش میکنند، اما این موارد نشان میدهد که در شرایط خاص، احتمال بروز آسیب جدی وجود دارد.
پیشرفت خیرهکننده توانمندیهای هوش مصنوعی
این گزارش تنها به جنبههای اجتماعی محدود نمیشود. AISI اعلام کرده است که مدلهای پیشرفته هوش مصنوعی اکنون میتوانند حدود ۵۰ درصد از وظایف در سطح کارآموزان حرفهای را بهدرستی انجام دهند؛ در حالی که این عدد در سال گذشته تنها ۱۰ درصد بوده است. همچنین برخی سیستمها قادرند بهصورت خودکار وظایفی را انجام دهند که بیش از یک ساعت زمان یک متخصص انسانی را میطلبد. در حوزههای علمی نیز، عملکرد AI فراتر از انتظار بوده است. طبق این گزارش، سیستمهای هوش مصنوعی تا ۹۰ درصد بهتر از متخصصان دارای مدرک دکترا در ارائه راهکارهای عیبیابی آزمایشگاهی عمل میکنند و دانش آنها در زمینههای شیمی و زیستشناسی حتی فراتر از سطح PhD ارزیابی شده است.
خطرات بالقوه؛ از خودتکثیری تا سوءاستفاده زیستی
AISI به بررسی نگرانیهای ایمنی کلیدی نیز پرداخته است. یکی از مهمترین آنها، خودتکثیری (Self-replication) است؛ قابلیتی که میتواند منجر به گسترش کنترلنشده سیستمهای هوش مصنوعی شود. آزمایشها نشان دادهاند که دو مدل پیشرفته توانستهاند نرخ موفقیت بالای ۶۰ درصد در تستهای خودتکثیری به دست آورند، هرچند هیچ مدلی تاکنون بهصورت خودجوش اقدام به این کار نکرده است و موفقیت آن در دنیای واقعی «بعید» ارزیابی میشود. موضوع دیگر، Sandbagging یا پنهانکردن تواناییها در ارزیابیهاست. گزارش تأکید میکند که اگرچه برخی مدلها در صورت درخواست میتوانند تواناییهای خود را مخفی کنند، اما این رفتار بهطور خودکار مشاهده نشده است.

افزایش ایمنی و چشمانداز AGI
از نکات مثبت گزارش، پیشرفت چشمگیر در ایمنسازی هوش مصنوعی بهویژه در جلوگیری از تولید سلاحهای زیستی است. در یک بازه ششماهه، زمان لازم برای «جیلبریک» کردن یک مدل از ۱۰ دقیقه به بیش از ۷ ساعت افزایش یافته که نشاندهنده بهبود سریع ایمنی است. در نهایت، AISI اعلام کرده است که با توجه به سرعت «فوقالعاده» پیشرفتها، دستیابی به هوش مصنوعی عمومی (AGI) در سالهای آینده «کاملاً محتمل» است؛ سیستمی که بتواند بیشتر وظایف فکری انسان را در سطحی مشابه انجام دهد.
منبع خبر: theguardian

شاهین آقامعلی


پاسخ :