
OpenAI، Microsoft، Google و Anthropic در حال ایجاد یک گروه تحقیقاتی برای اطمینان از توسعه مدلهای هوش مصنوعی ایمن هستند.
OpenAI، Microsoft، Google و Anthropic یک نهاد تحقیقاتی برای توسعه ایمنی مدلهای هوش مصنوعی به نام Frontier Model Forum راه اندازی کردند. این طرح شامل بررسی و تحقیقات ایمنی در رابطه با سیستمهای هوش مصنوعی و به اشتراک گذاری اطلاعات با سیاست گذاران است. انجمن مدل Frontier گفته که قصد دارد چهار حوزه کلیدی را پوشش دهد:
- تحقیقات ایمنی هوش مصنوعی برای ترویج و توسعه مسئولیتپذیرانه مدلهای هوش مصنوعی و به حداقل رساندن خطرات احتمالی.
- ارائه بهترین شیوههای ایمنی برای مدلهای هوش مصنوعی.
- به اشتراک گذاشتن دانش با سیاست گذاران، دانشگاهیان، جامعه مدنی و دیگران برای پیشبرد اهداف هوش مصنوعی.
- حمایت از تلاشها برای استفاده از هوش مصنوعی برای حل بزرگترین مشکلات جامعه بشری
به گفته شرکتهای مشارکت کننده در این طرح، اعضای آن در تلاش هستند برای مقابله با خطرات و تهدیدهای هوش مصنوعی تدابیری بیندیشند. و در عین حال مکانیسمی ایمن را برای به اشتراکگذاری اطلاعات در مورد هوش مصنوعی ایجاد میکنند. برد اسمیت، نایب رئیس و رئیس مایکروسافت، این طرح را به عنوان "گامی حیاتی برای گرد هم آوردن بخش فناوری در پیشبرد مسئولانه هوش مصنوعی و مقابله با چالشها بهگونهای که به نفع همه بشریت باشد" توصیف کرد. اسمیت افزود: «شرکتهایی که فناوری هوش مصنوعی را ایجاد میکنند، مسئولیت دارند که از ایمن و تحت کنترل بودن آن اطمینان کسب کنند.»
مدل Frontier چیست؟
گروه چهارگانه که در این طرح حضور دارند این مدل را که « Frontier Model Forum» مینامند یک مدل یادگیری ماشینی در مقیاس بزرگ تعریف میکنند که از قابلیتهای موجود در پیشرفتهترین مدلهای موجود فراتر میروند و میتوانند طیف گستردهای از وظایف را انجام دهند. مدلهای مرزی را نباید با مدلهای بنیادی یا سیستمهای هوش مصنوعی همهمنظوره مانند ChatGPT اشتباه گرفت. اساساً، به نظر میرسد که مفهوم یک مدل هوش مصنوعی مرزی یک اصطلاح عمومی برای شرکتهایی است که سیستمهای هوش مصنوعی چندوجهی بزرگ را توسعه میدهند. این گروه گفت که میخواهند شرکتهای دیگر بزرگی مثل متا، آمازون و اپل به آنها بپیوندند. هر عضو جدید مدل مرزی باید مایل به همکاری در جهت پیشرفت ایمن مدلهای هوش مصنوعی باشد. داریو آمودی، مدیر عامل آنتروپیک گفت: «مجمع مدل مرزی نقشی حیاتی در هماهنگی بهترین شیوهها و به اشتراک گذاری تحقیقات در مورد ایمنی هوش مصنوعی ایفا خواهند کرد.
پاسخ :