
بر اساس تحقیقات یک اندیشکده آمریکایی، مدلها هوش مصنوعی که زیربنای چتباتها را تشکیل میدهند عمدتا از پردازش زبان طبیعی استفاده میکنند، میتوانند به برنامهریزی حمله با سلاحهای بیولوژیکی کمک کنند. گزارشی از سوی شرکت رند که روز دوشنبه منتشر شد، چندین مدل زبان بزرگ (LLM) را آزمایش کرد و دریافت که آنها میتوانند راهنماییهایی ارائه کنند که میتواند در برنامهریزی و اجرای یک حمله بیولوژیکی کمک کنند. با این حال، یافتههای اولیه نشان داد که LLMها دستورالعملهای بیولوژیکی صریحی برای ایجاد سلاح ارائه نکردهاند. در این گزارش آمده است که تلاشهای قبلی برای مسلح کردن عوامل بیولوژیکی، مانند تلاش فرقه ژاپنی Aum Shinrikyo برای استفاده از سم بوتولینوم در دهه 1990، به دلیل عدم درک این باکتری شکست خورده است. اما این هوش مصنوعی میتواند به سرعت چنین شکافهای دانشی را پر کند.
سلاحهای زیستی از جمله تهدیدات جدی مرتبط با هوش مصنوعی هستند که در نشست جهانی ایمنی هوش مصنوعی ماه آینده در بریتانیا مورد بحث قرار خواهند گرفت. در ماه جولای، داریو آمودی، مدیر عامل شرکت هوش مصنوعی Anthropic، هشدار داد که سیستمهای هوش مصنوعی میتوانند در مدت دو تا سه سال به ساخت سلاحهای زیستی کمک کنند.LLMها بر روی حجم وسیعی از دادههای گرفته شده از اینترنت آموزشدیدهاند و یک فناوری اصلی پشت رباتهای چت مانند ChatGPT هستند. رند نشان نداد که کدام LLMها مورد آزمایش قرار گرفتهاند و محققان اشاره کردند که از طریق یک رابط برنامه نویسی کاربردی یا API به مدلها دسترسی پیدا کردهاند. در یک سناریوی آزمایشی که توسط رند ارائه شده، یک مدل LLM ناشناس عوامل بیولوژیکی بالقوه را شناسایی کرد. این عوامل بیولوژیکی شامل آبله، سیاه زخم و طاعون میشوند که رند در مورد شانس نسبی آنها برای ایجاد مرگ دسته جمعی بحث کرد. مدل LLM همچنین امکان به دست آوردن جوندگان یا کک آلوده به طاعون و انتقال از نمونههای زنده را هم ارزیابی کرد. سپس اشاره کرد که مقیاس مرگ و میر پیشبینیشده به عواملی مانند اندازه جمعیت مبتلا و نسبت موارد طاعون ذاتالریه بستگی دارد که کشندهتر از طاعون بوبونیک است.
محققان گفتند که نتایج اولیه آنها نشان میدهد که LLMها میتوانند به طور بالقوه در برنامه ریزی یک حمله بیولوژیکی کمک کنند. آنها گفتند که گزارش نهایی آنها بررسی میکند که آیا پاسخها صرفاً منعکسکننده اطلاعاتی هستند که قبلاً در دسترس بوده یا چیز فراتر از آن ارائه میشود. محققان میگویند: این سؤال بی جواب باقی میماند که آیا قابلیتهای LLM موجود سطح جدیدی از تهدید را فراتر از اطلاعات مضری که بهراحتی از اینترنت قابل دسترسی است ارائه میدهد یا خیر. با این حال، محققان رند گفتند برای پاسخ به این سؤال و سؤالات بیشتر نیاز به آزمایش دقیق مدلها دارند.
پاسخ :