آیا ChatGPT می‌تواند سلاح بیولوژیکی بسازد؟

...

• شرکت هوش مصنوعی OpenAI  مدل GPT-4 را آزمایش کرد تا ببیند آیا به کاربران در ساخت سلاح‌های بیولوژیکی کمک می‌کند یا خیر.  پاسخ: فقط کمی.

OpenAI در حال توسعه طرحی برای تعیین اینکه آیا مدل‌های زبان بزرگ آنها می‌تواند به کسی در ایجاد یک سلاح بیولوژیکی کمک کند یا خیر. برای این منظور، سازنده ChatGPT مطالعه‌ای انجام داد تا دریابد که آیا قدرتمندترین LLM آن، GPT-4، به کاربران در ساخت سلاح‌های زیستی کمک می‌کند یا خیر. برای انجام این آزمایش از 100 متخصص زیست شناسی با مدرک دکترا و دانشجو خواسته شد تا سعی کنند وظایفی را انجام دهند که شامل فرایند کامل ایجاد سلاح‌های زیستی، از ایده پردازی گرفته تا اکتساب، فرمول بندی و انتشار است. شرکت کنندگان در گروه‌های جداگانه‌ای قرار گرفتند و به آنها دسترسی به اینترنت و GPT-4 داده شد. این آزمایش برای بهبود عملکرد در دقت، کامل بودن، نوآوری، زمان صرف شده و دشواری خود ارزیابی آزمایش شد. این مطالعه نشان داد که GPT-4 پیشنهادات قابل‌توجهی برای ایجاد سلاح‌های بیولوژیکی ارائه نمی‌کند. این مدل زبان بزرگ گاهی اوقات یا برخی ورودی‌های آسیب زا را رد می‌کند یا در پاسخ‌ به آنها خطا ایجاد می‌کند. OpenAI خاطر نشان کرد که یافته‌های ما نقطه شروعی برای ادامه تحقیقات و مشورت در جامعه است. از جمله تحقیقات بیشتر در مورد اینکه چه آستانه‌های عملکردی نشان‌دهنده افزایش معنی‌دار ریسک است. 

chatGPT

Tripwire برای احتیاط:

یافته‌های این مطالعه اخیر می‌تواند به ایجاد آنچه OpenAI به عنوان "tripwire" توصیف می‌کند. کمک کند. tripwire یک سیستم هشدار اولیه برای شناسایی تهدیدات سلاح‌های زیستی است. OpenAI همچنین هشدار داد که اگرچه GPT-4 خطر ساخت سلاح‌های بیولوژیکی را افزایش نمی‌دهد اما در این مطالعه آمده است: با توجه به سرعت کنونی پیشرفت در سیستم‌های هوش مصنوعی، به نظر می‌رسد که سیستم‌های آینده بتوانند مزایای قابل‌توجهی را برای عوامل مخرب فراهم کنند. خطر وجودی هوش مصنوعی، به‌ویژه استفاده از مدل‌های زبانی برای اهداف شوم، به نگرانی فزاینده‌ای برای کارشناسان و قانون‌گذاران هوش مصنوعی تبدیل شده است. نگرانی‌های آخرالزمانی در اکتبر گذشته تشدید شد، زمانی که شرکت رند مطالعه‌ای را منتشر کرد که گفت چت ربات‌هایی مانند ChatGPT می‌توانند به برنامه‌ریزی حمله با سلاح‌های بیولوژیکی کمک کنند. به نظر می‌رسد که OpenAI در پی اخراج و استخدام مجدد مدیر عامل خود سام آلتمن که ظاهراً این اخراج تا حدی به دلیل نگرانی‌های ایمنی هوش مصنوعی بود، محتاطانه‌تر عمل می‌کند. این استارت‌آپ اخیراً چارچوب آمادگی خود را معرفی کرده است که ایمنی مدل را قبل از استقرار ارزیابی می‌کند.

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟