چت بات‌های هوش مصنوعی می‌توانند حملات سلاح‌های زیستی را برنامه ریزی کنند

...

بر اساس تحقیقات یک اندیشکده آمریکایی، مدل‌ها هوش مصنوعی که زیربنای چت‌بات‌ها را تشکیل می‌دهند عمدتا از پردازش زبان طبیعی استفاده میکنند، می‌توانند به برنامه‌ریزی حمله با سلاح‌های بیولوژیکی کمک کنند. گزارشی از سوی شرکت رند که روز دوشنبه منتشر شد، چندین مدل زبان بزرگ (LLM) را آزمایش کرد و دریافت که آنها می‌توانند راهنمایی‌هایی ارائه کنند که می‌تواند در برنامه‌ریزی و اجرای یک حمله بیولوژیکی کمک کنند. با این حال، یافته‌های اولیه نشان داد که LLMها دستورالعمل‌های بیولوژیکی صریحی برای ایجاد سلاح ارائه نکرده‌اند. در این گزارش آمده است که تلاش‌های قبلی برای مسلح کردن عوامل بیولوژیکی، مانند تلاش فرقه ژاپنی Aum Shinrikyo برای استفاده از سم بوتولینوم در دهه 1990، به دلیل عدم درک این باکتری شکست خورده است. اما این هوش مصنوعی می‌تواند به سرعت چنین شکاف‌های دانشی را پر کند.
سلاح‌های زیستی از جمله تهدیدات جدی مرتبط با هوش مصنوعی هستند که در نشست جهانی ایمنی هوش مصنوعی ماه آینده در بریتانیا مورد بحث قرار خواهند گرفت. در ماه جولای، داریو آمودی، مدیر عامل شرکت هوش مصنوعی Anthropic، هشدار داد که سیستم‌های هوش مصنوعی می‌توانند در مدت دو تا سه سال به ساخت سلاح‌های زیستی کمک کنند.LLMها بر روی حجم وسیعی از داده‌های گرفته شده از اینترنت آموزش‌دیده‌اند و یک فناوری اصلی پشت ربات‌های چت مانند ChatGPT هستند. رند نشان نداد که کدام LLMها مورد آزمایش قرار گرفته‌اند و محققان اشاره کردند که از طریق یک رابط برنامه نویسی کاربردی یا API به مدل‌ها دسترسی پیدا کرده‌اند. در یک سناریوی آزمایشی که توسط رند ارائه شده، یک مدل LLM ناشناس عوامل بیولوژیکی بالقوه را شناسایی کرد. این عوامل بیولوژیکی شامل آبله، سیاه زخم و طاعون می‌شوند که رند در مورد شانس نسبی آنها برای ایجاد مرگ دسته جمعی بحث کرد. مدل LLM همچنین امکان به دست آوردن جوندگان یا کک آلوده به طاعون و انتقال از نمونه‌های زنده را هم ارزیابی کرد. سپس اشاره کرد که مقیاس مرگ و میر پیش‌بینی‌شده به عواملی مانند اندازه جمعیت مبتلا و نسبت موارد طاعون ذات‌الریه بستگی دارد که کشنده‌تر از طاعون بوبونیک است.

استفاده از چت بات ها برای ساخت سلاح های بیولوژیکی

محققان گفتند که نتایج اولیه آنها نشان می‌دهد که LLMها می‌توانند به طور بالقوه در برنامه ریزی یک حمله بیولوژیکی کمک کنند. آنها گفتند که گزارش نهایی آنها بررسی می‌کند که آیا پاسخ‌ها صرفاً منعکس‌کننده اطلاعاتی هستند که قبلاً در دسترس بوده یا چیز فراتر از آن ارائه می‌شود. محققان می‌گویند: این سؤال بی جواب باقی می‌ماند که آیا قابلیت‌های LLM موجود سطح جدیدی از تهدید را فراتر از اطلاعات مضری که به‌راحتی از اینترنت قابل دسترسی است ارائه می‌دهد یا خیر. با این حال، محققان رند گفتند برای پاسخ به این سؤال و سؤالات بیشتر نیاز به آزمایش دقیق مدل‌ها دارند. 

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟