OpenAI تدابیر ایمنی خود را افزایش می‌دهد

...

• OpenAI یک تیم برای ایمنی سنجی مدل‌های هوش مصنوعی خود قبل از عمومی شدن در نظر گرفته است
• مدل‌های هوش مصنوعی از لحاظ امنیتی در چهار سطح امتیازدهی می‌شوند: کم، متوسط، زیاد و بحرانی. مدل‌های بالا و بحرانی نیاز به نظارت‌های امنیتی بیشتری خواهند داشت.

در پی آشفتگی اخیر در هیئت مدیره، OpenAI در حال راه اندازی یک تیم اختصاصی برای نظارت بر تست‌های ایمنی بر روی مدل‌های خود است.OpenAI  مدیر عامل شرکت، سام آلتمن را برای مدتی برکنار کرده بود. آلتمن پنج روز بعد از اینکه اکثر کارکنان تهدید کردند که برای ابراز همدردی با آلتمن از کار کنار می‌روند، به سمت خود در این شرکت بازگشت. در حال حاضر، OpenAI در حال تقویت ایمنی مدل‌های هوش مصنوعی خود با تشکیل یک تیم ایمنی است که قرار است ارزیابی‌های امنیتی مدل‌ها را انجام دهند و محدودیت‌ مدل‌های پایه خود را برطرف کنند. گزارش‌های گردآوری شده توسط تیم امنیتی برای تیم رهبری OpenAI و همچنین هیئت مدیره جدید ارسال می‌شود و تیم رهبری تصمیم می‌گیرد که آیا توسعه مدل‌ها را پس از آزمایش‌ها پیش ببرند یا خیر. در یک پست وبلاگ OpenAI آمده است: این کار فنی برای اطلاع از تصمیم گیری OpenAI برای توسعه و استقرار مدل ایمن بسیار مهم است. اختیارات جدید هیئت مدیره پس از یک تغییر اساسی که پس از اخراج و استخدام مجدد آلتمن در ماه نوامبر صورت گرفت، به وجود آمد. انتظار می‌رود که هیئت مدیره از سه عضو به 9 عضو افزایش یابد و مایکروسافت نیز موقعیت ناظر بدون رای را در این هیئت به دست آورد. هیئت مدیره OpenAI در حال حاضر متشکل از لری سامرز وزیر خزانه داری سابق ایالات متحده، مدیر عامل سابق Salesforce، برت تیلور و بنیان‌گذار Quora، آدام دی آنجلو است که برت تیلور تنها بازمانده از هیئت مدیره قبلی است.

تیم ایمنی OpenAI

چارچوب آمادگی OpenAI:

OpenAI گفت هدف اصلی این شرکت ایمنی است و ما متعهد به انجام تحقیقات لازم برای ایمن سازی مدل‌های خود هستیم.OpenAI  گفت که می‌خواهد از اشتباهات گذشته خود درس بگیرد و از این درس‌ها برای کاهش خطرات در حال ظهور مدل‌های هوش مصنوعی استفاده کند تا اینکه ایمنی همگام با نوآوری باشد. تیم امنیتی تحت یک چارچوب خاص آمادگی‌های لازم را انجام می‌دهد و اطمینان حاصل می‌کند که OpenAI می‌تواند در صورت بروز مشکلات به سرعت به آنها پاسخ دهد. OpenAI گفت که همچنین اشخاص ثالث واجد شرایط و مستقل را هم ممکن است برای انجام این کار وارد عمل کند. OpenAI مدل‌های خود را بر اساس مسائل مربوط به امنیت سایبری، متقاعدسازی، استقلال مدل و سوء استفاده از سیستم‌ها برای تولید تهدیدات شیمیایی، بیولوژیکی یا هسته‌ای ارزیابی خواهند کرد. سپس مدل‌ها بر اساس این نتایج در یکی از چهار سطح خطر ایمنی قرار می‌گیرند، شبیه به طبقه‌بندی سیستم‌های هوش مصنوعی قانون اتحادیه اروپا. مدل‌های OpenAI بر اساس سطوح ریسک کم، متوسط، زیاد و بحرانی امتیازدهی می‌شوند. مدل‌هایی که امتیاز «متوسط» یا پایین‌تر دارند، برای استقرار مناسب در نظر گرفته می‌شوند، در حالی که مدل‌هایی که امتیاز «بالا» دارند، باید از نظر امنیتی بررسی شوند و مدل‌هایی که «بحرانی» یا «بالا» تلقی می‌شوند اقدامات ایمنی بیشتری را دریافت می‌کنند.

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟