متا، لیاما بنفش را معرفی کرد

...

• ابزارهای جدید هوش مصنوعی متا می‌توانند مدل‌های هوش مصنوعی تجاری را از نظر آسیب پذیری تست کنند.

متا مادر فیس‌بوک در حال معرفی ابزارهای جدیدی برای محافظت و ایمن سازی مدل‌های هوش مصنوعی منبع باز خود است. این پروژه که Purple Llama نام دارد، مجموعه‌ای از ابزارها را در اختیار توسعه‌دهندگان قرار می‌دهد تا مدل‌های خود را برای اطمینان از ایمنی قبل از انتشار آزمایش کنند. متا گفت که راه اندازی مجموعه ابزارهای امنیتی، برای جلب اعتماد توسعه دهندگانی است که موج جدید هوش مصنوعی را دنبال می‌کنند و قصد دارد در پیشبرد اهداف خود از مدل‌های هوش مصنوعی و پردازش زبان طبیعی استفاده کنند. یکی از اولین ابزارهای موجود در Purple Llama، Llama Guard است، یک مدل از پیش آموزش‌دیده باز که توسعه‌دهندگان می‌توانند از آن برای جلوگیری از تولید خروجی‌های خطرناک و مضر استفاده کنند.Llama Guard  بر روی ترکیبی از مجموعه داده‌هایی که در دسترس عموم است، آموزش دیده است و برای شناسایی انواع رایج محتوای مخاطره آمیز در مدل‌های هوش مصنوعی طراحی شده است. کاربران می‌توانند Llama Guard را مطابق نیازهای خود سفارشی سازی کنند و اجازه دهند که بهترین شیوه برای حل مشکل به کار گرفته شود.

مدل لیاما بنفش

یکی دیگر از ابزارهای جدید، Purple Llama CyberSec Eval است، مجموعه‌ای از معیارهای ارزیابی امنیت سایبری برای مدل‌های زبان بزرگ. CyberSec Eval شامل تست‌هایی برای تعیین میزان خطرات و امنیت سایبری LLMها و همچنین ارزیابی میزان ناامن بود کدهای تولید شده توسط این مدل‌هاست تا بتواند از تولید کدهای مخرب و نا کارآمد در این مدل‌ها جلوگیری کند. نام پروژه Purple Llama از مدل AI منبع باز محبوب متا، Llama و مفهومی از دنیای امنیت سایبری گرفته شده است که در آن تیم‌های قرمز به سیستم‌ها حمله می‌کنند و تیم‌های آبی از سیستم‌ها دفاع می‌کنند. Sy Choudhury، مدیر توسعه کسب و کار متا گفت: وقتی این دو رنگ با هم ترکیب می‌شوند رنگ بنفش را ایجاد می‌کنند و دلیل انتخاب این نام هم همین است. ابزارهای پروژه Purple Llama دارای مجوز خواهند بود تا بتوان از آنها برای موارد تجاری و همچنین تحقیقات استفاده کرد. متا گفت که اعضای اتحادیه هوش مصنوعی که اخیراً تشکیل شده است و این شرکت هم یکی از اعضای مؤسس آن است، برای بهبود ابزارها و در دسترس قرار دادن آنها به طور گسترده و منبع باز تلاش خواهند کرد. بر اساس یک پست وبلاگی Meta این چنین بیان شده است: ما معتقدیم که این یک گام بزرگ در ایجاد امکان همکاری بین توسعه دهندگان و استانداردسازی ابزارهای اعتماد و ایمنی برای هوش مصنوعی مولد است.
 

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟