متا، به رهبری مارک زاکربرگ، وعده داده است که در آینده هوش مصنوعی عمومی (AGI) را بهصورت باز در دسترس قرار دهد. بااینحال، در سند سیاستی جدیدی تحت عنوان "چارچوب هوش مصنوعی فرانتیر"، این شرکت تصریح کرده است که در برخی شرایط، سیستمهای هوش مصنوعی بسیار قدرتمند را منتشر نخواهد کرد. طبق این سند، متا دو دسته از سیستمهای هوش مصنوعی را به دلیل خطرات احتمالی انتشار محدود میکند: "سیستمهای پرخطر" و "سیستمهای بحرانی". تفاوت اصلی این دو در میزان تأثیر مخرب آنهاست. سیستمهای پرخطر میتوانند حملات سایبری، بیولوژیکی یا شیمیایی را تسهیل کنند، اما سیستمهای بحرانی میتوانند منجر به پیامدهای فاجعهباری شوند که در شرایط خاص قابل کاهش نیستند.
متا چند نمونه از این خطرات را ذکر کرده است، ازجمله "نفوذ خودکار و کامل به یک محیط شرکتی محافظتشده" و "گسترش سلاحهای بیولوژیکی با تأثیر بالا". بااینحال، این شرکت اذعان دارد که لیست تهدیدهای بالقوه بسیار گستردهتر است. جالب اینجاست که متا ارزیابی خطرات را نه بر اساس معیارهای علمی مشخص، بلکه بر پایه نظر متخصصان داخلی و خارجی انجام میدهد. این تصمیم بر این اساس است که علم ارزیابی ریسک هنوز به سطحی نرسیده که بتوان از معیارهای دقیق و کمی برای تعیین میزان خطرپذیری یک سیستم استفاده کرد. در صورت تشخیص یک سیستم بهعنوان پرخطر، متا دسترسی به آن را محدود کرده و انتشار آن را تا زمان کاهش خطرات به سطح متوسط به تعویق میاندازد. اما اگر سیستمی بحرانی شناخته شود، شرکت توسعه آن را متوقف کرده و تدابیر امنیتی خاصی برای جلوگیری از سرقت یا سوءاستفاده از آن اتخاذ خواهد کرد.
این چارچوب جدید احتمالاً پاسخی به انتقادهایی است که متا به دلیل سیاستهای "باز" خود در قبال انتشار فناوریهای هوش مصنوعی دریافت کرده است. در حالی که بسیاری از شرکتهای رقیب مانند OpenAI، سیستمهای خود را پشت APIهای محدودکننده نگه میدارند، متا استراتژی انتشار عمومی را دنبال کرده است. این سیاست باعث افزایش محبوبیت مدلهای هوش مصنوعی Llama شده و صدها میلیون بار دانلود شده است، اما درعینحال، برخی گزارشها نشان میدهند که این فناوری توسط برخی کشورها برای ساخت ابزارهای دفاعی مورد استفاده قرار گرفته است. متا با انتشار این سند، نهتنها قصد دارد شفافیت بیشتری در سیاستهای خود نشان دهد، بلکه میخواهد خود را در تقابل با شرکتهای چینی مانند DeepSeek معرفی کند. شرکتهایی مانند DeepSeek نیز سیستمهای خود را بهصورت عمومی منتشر میکنند، اما بدون تدابیر حفاظتی کافی، که منجر به تولید خروجیهای سمی و مخرب میشود. در نهایت، متا در این سند تأکید میکند که بین مزایا و خطرات هوش مصنوعی باید توازن برقرار شود تا جامعه بتواند از پیشرفت این فناوری بهرهمند شود، بدون اینکه با تهدیدات غیرقابلکنترل روبهرو شود.
منبع خبر: techcrunch
پاسخ :