
• ابزارهای جدید هوش مصنوعی متا میتوانند مدلهای هوش مصنوعی تجاری را از نظر آسیب پذیری تست کنند.
متا مادر فیسبوک در حال معرفی ابزارهای جدیدی برای محافظت و ایمن سازی مدلهای هوش مصنوعی منبع باز خود است. این پروژه که Purple Llama نام دارد، مجموعهای از ابزارها را در اختیار توسعهدهندگان قرار میدهد تا مدلهای خود را برای اطمینان از ایمنی قبل از انتشار آزمایش کنند. متا گفت که راه اندازی مجموعه ابزارهای امنیتی، برای جلب اعتماد توسعه دهندگانی است که موج جدید هوش مصنوعی را دنبال میکنند و قصد دارد در پیشبرد اهداف خود از مدلهای هوش مصنوعی و پردازش زبان طبیعی استفاده کنند. یکی از اولین ابزارهای موجود در Purple Llama، Llama Guard است، یک مدل از پیش آموزشدیده باز که توسعهدهندگان میتوانند از آن برای جلوگیری از تولید خروجیهای خطرناک و مضر استفاده کنند.Llama Guard بر روی ترکیبی از مجموعه دادههایی که در دسترس عموم است، آموزش دیده است و برای شناسایی انواع رایج محتوای مخاطره آمیز در مدلهای هوش مصنوعی طراحی شده است. کاربران میتوانند Llama Guard را مطابق نیازهای خود سفارشی سازی کنند و اجازه دهند که بهترین شیوه برای حل مشکل به کار گرفته شود.
یکی دیگر از ابزارهای جدید، Purple Llama CyberSec Eval است، مجموعهای از معیارهای ارزیابی امنیت سایبری برای مدلهای زبان بزرگ. CyberSec Eval شامل تستهایی برای تعیین میزان خطرات و امنیت سایبری LLMها و همچنین ارزیابی میزان ناامن بود کدهای تولید شده توسط این مدلهاست تا بتواند از تولید کدهای مخرب و نا کارآمد در این مدلها جلوگیری کند. نام پروژه Purple Llama از مدل AI منبع باز محبوب متا، Llama و مفهومی از دنیای امنیت سایبری گرفته شده است که در آن تیمهای قرمز به سیستمها حمله میکنند و تیمهای آبی از سیستمها دفاع میکنند. Sy Choudhury، مدیر توسعه کسب و کار متا گفت: وقتی این دو رنگ با هم ترکیب میشوند رنگ بنفش را ایجاد میکنند و دلیل انتخاب این نام هم همین است. ابزارهای پروژه Purple Llama دارای مجوز خواهند بود تا بتوان از آنها برای موارد تجاری و همچنین تحقیقات استفاده کرد. متا گفت که اعضای اتحادیه هوش مصنوعی که اخیراً تشکیل شده است و این شرکت هم یکی از اعضای مؤسس آن است، برای بهبود ابزارها و در دسترس قرار دادن آنها به طور گسترده و منبع باز تلاش خواهند کرد. بر اساس یک پست وبلاگی Meta این چنین بیان شده است: ما معتقدیم که این یک گام بزرگ در ایجاد امکان همکاری بین توسعه دهندگان و استانداردسازی ابزارهای اعتماد و ایمنی برای هوش مصنوعی مولد است.
پاسخ :