غول‌های تکنولوژی به دنبال کنترل هوش مصنوعی

...

OpenAI، Microsoft، Google و Anthropic در حال ایجاد یک گروه تحقیقاتی برای اطمینان از توسعه مدل‌های هوش مصنوعی ایمن هستند.

OpenAI، Microsoft، Google و Anthropic یک نهاد تحقیقاتی برای توسعه ایمنی مدل‌های هوش مصنوعی به نام Frontier Model Forum راه اندازی کردند. این طرح شامل بررسی و تحقیقات ایمنی در رابطه با سیستم‌های هوش مصنوعی و به اشتراک گذاری اطلاعات با سیاست گذاران است. انجمن مدل Frontier گفته که قصد دارد چهار حوزه کلیدی را پوشش دهد:

  • تحقیقات ایمنی هوش مصنوعی برای ترویج و توسعه مسئولیت‌پذیرانه مدل‌های هوش مصنوعی و به حداقل رساندن خطرات احتمالی.
  • ارائه بهترین شیوه‌های ایمنی برای مدل‌های هوش مصنوعی.
  • به اشتراک گذاشتن دانش با سیاست گذاران، دانشگاهیان، جامعه مدنی و دیگران برای پیشبرد اهداف هوش مصنوعی.
  • حمایت از تلاش‌ها برای استفاده از هوش مصنوعی برای حل بزرگ‌ترین مشکلات جامعه بشری

به گفته شرکت‌های مشارکت کننده در این طرح، اعضای آن در تلاش هستند برای مقابله با خطرات و تهدیدهای هوش مصنوعی تدابیری بیندیشند. و در عین حال مکانیسمی ایمن را برای به اشتراک‌گذاری اطلاعات در مورد هوش مصنوعی ایجاد می‌کنند. برد اسمیت، نایب رئیس و رئیس مایکروسافت، این طرح را به عنوان "گامی حیاتی برای گرد هم آوردن بخش فناوری در پیشبرد مسئولانه هوش مصنوعی و مقابله با چالش‌ها به‌گونه‌ای که به نفع همه بشریت باشد" توصیف کرد. اسمیت افزود: «شرکت‌هایی که فناوری هوش مصنوعی را ایجاد می‌کنند، مسئولیت دارند که از ایمن و تحت کنترل بودن آن اطمینان کسب کنند.»

AI-threats

مدل Frontier چیست؟

گروه چهارگانه که در این طرح حضور دارند این مدل را که « Frontier Model Forum» می‌نامند یک مدل یادگیری ماشینی در مقیاس بزرگ تعریف می‌کنند که از قابلیت‌های موجود در پیشرفته‌ترین مدل‌های موجود فراتر می‌روند و می‌توانند طیف گسترده‌ای از وظایف را انجام دهند. مدل‌های مرزی را نباید با مدل‌های بنیادی یا سیستم‌های هوش مصنوعی همه‌منظوره مانند ChatGPT اشتباه گرفت. اساساً، به نظر می‌رسد که مفهوم یک مدل هوش مصنوعی مرزی یک اصطلاح عمومی برای شرکت‌هایی است که سیستم‌های هوش مصنوعی چندوجهی بزرگ را توسعه می‌دهند. این گروه گفت که می‌خواهند شرکت‌های دیگر بزرگی مثل متا، آمازون و اپل به آنها بپیوندند. هر عضو جدید مدل مرزی باید مایل به همکاری در جهت پیشرفت ایمن مدل‌های هوش مصنوعی باشد. داریو آمودی، مدیر عامل آنتروپیک گفت: «مجمع مدل مرزی نقشی حیاتی در هماهنگی بهترین شیوه‌ها و به اشتراک گذاری تحقیقات در مورد ایمنی هوش مصنوعی ایفا خواهند کرد.

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟