
• OpenAI یک تیم برای ایمنی سنجی مدلهای هوش مصنوعی خود قبل از عمومی شدن در نظر گرفته است
• مدلهای هوش مصنوعی از لحاظ امنیتی در چهار سطح امتیازدهی میشوند: کم، متوسط، زیاد و بحرانی. مدلهای بالا و بحرانی نیاز به نظارتهای امنیتی بیشتری خواهند داشت.
در پی آشفتگی اخیر در هیئت مدیره، OpenAI در حال راه اندازی یک تیم اختصاصی برای نظارت بر تستهای ایمنی بر روی مدلهای خود است.OpenAI مدیر عامل شرکت، سام آلتمن را برای مدتی برکنار کرده بود. آلتمن پنج روز بعد از اینکه اکثر کارکنان تهدید کردند که برای ابراز همدردی با آلتمن از کار کنار میروند، به سمت خود در این شرکت بازگشت. در حال حاضر، OpenAI در حال تقویت ایمنی مدلهای هوش مصنوعی خود با تشکیل یک تیم ایمنی است که قرار است ارزیابیهای امنیتی مدلها را انجام دهند و محدودیت مدلهای پایه خود را برطرف کنند. گزارشهای گردآوری شده توسط تیم امنیتی برای تیم رهبری OpenAI و همچنین هیئت مدیره جدید ارسال میشود و تیم رهبری تصمیم میگیرد که آیا توسعه مدلها را پس از آزمایشها پیش ببرند یا خیر. در یک پست وبلاگ OpenAI آمده است: این کار فنی برای اطلاع از تصمیم گیری OpenAI برای توسعه و استقرار مدل ایمن بسیار مهم است. اختیارات جدید هیئت مدیره پس از یک تغییر اساسی که پس از اخراج و استخدام مجدد آلتمن در ماه نوامبر صورت گرفت، به وجود آمد. انتظار میرود که هیئت مدیره از سه عضو به 9 عضو افزایش یابد و مایکروسافت نیز موقعیت ناظر بدون رای را در این هیئت به دست آورد. هیئت مدیره OpenAI در حال حاضر متشکل از لری سامرز وزیر خزانه داری سابق ایالات متحده، مدیر عامل سابق Salesforce، برت تیلور و بنیانگذار Quora، آدام دی آنجلو است که برت تیلور تنها بازمانده از هیئت مدیره قبلی است.
چارچوب آمادگی OpenAI:
OpenAI گفت هدف اصلی این شرکت ایمنی است و ما متعهد به انجام تحقیقات لازم برای ایمن سازی مدلهای خود هستیم.OpenAI گفت که میخواهد از اشتباهات گذشته خود درس بگیرد و از این درسها برای کاهش خطرات در حال ظهور مدلهای هوش مصنوعی استفاده کند تا اینکه ایمنی همگام با نوآوری باشد. تیم امنیتی تحت یک چارچوب خاص آمادگیهای لازم را انجام میدهد و اطمینان حاصل میکند که OpenAI میتواند در صورت بروز مشکلات به سرعت به آنها پاسخ دهد. OpenAI گفت که همچنین اشخاص ثالث واجد شرایط و مستقل را هم ممکن است برای انجام این کار وارد عمل کند. OpenAI مدلهای خود را بر اساس مسائل مربوط به امنیت سایبری، متقاعدسازی، استقلال مدل و سوء استفاده از سیستمها برای تولید تهدیدات شیمیایی، بیولوژیکی یا هستهای ارزیابی خواهند کرد. سپس مدلها بر اساس این نتایج در یکی از چهار سطح خطر ایمنی قرار میگیرند، شبیه به طبقهبندی سیستمهای هوش مصنوعی قانون اتحادیه اروپا. مدلهای OpenAI بر اساس سطوح ریسک کم، متوسط، زیاد و بحرانی امتیازدهی میشوند. مدلهایی که امتیاز «متوسط» یا پایینتر دارند، برای استقرار مناسب در نظر گرفته میشوند، در حالی که مدلهایی که امتیاز «بالا» دارند، باید از نظر امنیتی بررسی شوند و مدلهایی که «بحرانی» یا «بالا» تلقی میشوند اقدامات ایمنی بیشتری را دریافت میکنند.
پاسخ :