متا توسعه سیستم های پرخطر هوش مصنوعی را متوقف میکند

...

متا، به رهبری مارک زاکربرگ، وعده داده است که در آینده هوش مصنوعی عمومی (AGI) را به‌صورت باز در دسترس قرار دهد. بااین‌حال، در سند سیاستی جدیدی تحت عنوان "چارچوب هوش مصنوعی فرانتیر"، این شرکت تصریح کرده است که در برخی شرایط، سیستم‌های هوش مصنوعی بسیار قدرتمند را منتشر نخواهد کرد. طبق این سند، متا دو دسته از سیستم‌های هوش مصنوعی را به دلیل خطرات احتمالی انتشار محدود می‌کند: "سیستم‌های پرخطر" و "سیستم‌های بحرانی". تفاوت اصلی این دو در میزان تأثیر مخرب آن‌هاست. سیستم‌های پرخطر می‌توانند حملات سایبری، بیولوژیکی یا شیمیایی را تسهیل کنند، اما سیستم‌های بحرانی می‌توانند منجر به پیامدهای فاجعه‌باری شوند که در شرایط خاص قابل کاهش نیستند.

 

هوش مصنوعی خطرناک متا

 

متا چند نمونه از این خطرات را ذکر کرده است، ازجمله "نفوذ خودکار و کامل به یک محیط شرکتی محافظت‌شده" و "گسترش سلاح‌های بیولوژیکی با تأثیر بالا". بااین‌حال، این شرکت اذعان دارد که لیست تهدیدهای بالقوه بسیار گسترده‌تر است. جالب اینجاست که متا ارزیابی خطرات را نه بر اساس معیارهای علمی مشخص، بلکه بر پایه نظر متخصصان داخلی و خارجی انجام می‌دهد. این تصمیم بر این اساس است که علم ارزیابی ریسک هنوز به سطحی نرسیده که بتوان از معیارهای دقیق و کمی برای تعیین میزان خطرپذیری یک سیستم استفاده کرد. در صورت تشخیص یک سیستم به‌عنوان پرخطر، متا دسترسی به آن را محدود کرده و انتشار آن را تا زمان کاهش خطرات به سطح متوسط به تعویق می‌اندازد. اما اگر سیستمی بحرانی شناخته شود، شرکت توسعه آن را متوقف کرده و تدابیر امنیتی خاصی برای جلوگیری از سرقت یا سوءاستفاده از آن اتخاذ خواهد کرد.

 

هوش مصنوعی خطرناک متا

 

این چارچوب جدید احتمالاً پاسخی به انتقادهایی است که متا به دلیل سیاست‌های "باز" خود در قبال انتشار فناوری‌های هوش مصنوعی دریافت کرده است. در حالی که بسیاری از شرکت‌های رقیب مانند OpenAI، سیستم‌های خود را پشت APIهای محدودکننده نگه می‌دارند، متا استراتژی انتشار عمومی را دنبال کرده است. این سیاست باعث افزایش محبوبیت مدل‌های هوش مصنوعی Llama شده و صدها میلیون بار دانلود شده است، اما درعین‌حال، برخی گزارش‌ها نشان می‌دهند که این فناوری توسط برخی کشورها برای ساخت ابزارهای دفاعی مورد استفاده قرار گرفته است. متا با انتشار این سند، نه‌تنها قصد دارد شفافیت بیشتری در سیاست‌های خود نشان دهد، بلکه می‌خواهد خود را در تقابل با شرکت‌های چینی مانند DeepSeek معرفی کند. شرکت‌هایی مانند DeepSeek نیز سیستم‌های خود را به‌صورت عمومی منتشر می‌کنند، اما بدون تدابیر حفاظتی کافی، که منجر به تولید خروجی‌های سمی و مخرب می‌شود. در نهایت، متا در این سند تأکید می‌کند که بین مزایا و خطرات هوش مصنوعی باید توازن برقرار شود تا جامعه بتواند از پیشرفت این فناوری بهره‌مند شود، بدون اینکه با تهدیدات غیرقابل‌کنترل روبه‌رو شود.

منبع خبر: techcrunch

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟