
• شرکت هوش مصنوعی OpenAI مدل GPT-4 را آزمایش کرد تا ببیند آیا به کاربران در ساخت سلاحهای بیولوژیکی کمک میکند یا خیر. پاسخ: فقط کمی.
OpenAI در حال توسعه طرحی برای تعیین اینکه آیا مدلهای زبان بزرگ آنها میتواند به کسی در ایجاد یک سلاح بیولوژیکی کمک کند یا خیر. برای این منظور، سازنده ChatGPT مطالعهای انجام داد تا دریابد که آیا قدرتمندترین LLM آن، GPT-4، به کاربران در ساخت سلاحهای زیستی کمک میکند یا خیر. برای انجام این آزمایش از 100 متخصص زیست شناسی با مدرک دکترا و دانشجو خواسته شد تا سعی کنند وظایفی را انجام دهند که شامل فرایند کامل ایجاد سلاحهای زیستی، از ایده پردازی گرفته تا اکتساب، فرمول بندی و انتشار است. شرکت کنندگان در گروههای جداگانهای قرار گرفتند و به آنها دسترسی به اینترنت و GPT-4 داده شد. این آزمایش برای بهبود عملکرد در دقت، کامل بودن، نوآوری، زمان صرف شده و دشواری خود ارزیابی آزمایش شد. این مطالعه نشان داد که GPT-4 پیشنهادات قابلتوجهی برای ایجاد سلاحهای بیولوژیکی ارائه نمیکند. این مدل زبان بزرگ گاهی اوقات یا برخی ورودیهای آسیب زا را رد میکند یا در پاسخ به آنها خطا ایجاد میکند. OpenAI خاطر نشان کرد که یافتههای ما نقطه شروعی برای ادامه تحقیقات و مشورت در جامعه است. از جمله تحقیقات بیشتر در مورد اینکه چه آستانههای عملکردی نشاندهنده افزایش معنیدار ریسک است.
Tripwire برای احتیاط:
یافتههای این مطالعه اخیر میتواند به ایجاد آنچه OpenAI به عنوان "tripwire" توصیف میکند. کمک کند. tripwire یک سیستم هشدار اولیه برای شناسایی تهدیدات سلاحهای زیستی است. OpenAI همچنین هشدار داد که اگرچه GPT-4 خطر ساخت سلاحهای بیولوژیکی را افزایش نمیدهد اما در این مطالعه آمده است: با توجه به سرعت کنونی پیشرفت در سیستمهای هوش مصنوعی، به نظر میرسد که سیستمهای آینده بتوانند مزایای قابلتوجهی را برای عوامل مخرب فراهم کنند. خطر وجودی هوش مصنوعی، بهویژه استفاده از مدلهای زبانی برای اهداف شوم، به نگرانی فزایندهای برای کارشناسان و قانونگذاران هوش مصنوعی تبدیل شده است. نگرانیهای آخرالزمانی در اکتبر گذشته تشدید شد، زمانی که شرکت رند مطالعهای را منتشر کرد که گفت چت رباتهایی مانند ChatGPT میتوانند به برنامهریزی حمله با سلاحهای بیولوژیکی کمک کنند. به نظر میرسد که OpenAI در پی اخراج و استخدام مجدد مدیر عامل خود سام آلتمن که ظاهراً این اخراج تا حدی به دلیل نگرانیهای ایمنی هوش مصنوعی بود، محتاطانهتر عمل میکند. این استارتآپ اخیراً چارچوب آمادگی خود را معرفی کرده است که ایمنی مدل را قبل از استقرار ارزیابی میکند.
پاسخ :