
دانشمندان چینی ادعا کردهاند که هوش مصنوعی (AI) از یک مرز حیاتی عبور کرده و توانسته خود را بدون کمک انسانی تکثیر کند. در مطالعهای که توسط پژوهشگران دانشگاه فودان انجام شد، نشان داده شد که دو مدل زبانی بزرگ (LLM) از شرکتهای متا و علیبابا قادر به ایجاد نسخههای جدیدی از خود بودهاند. این تحقیق که در 9 دسامبر 2024 در پایگاه arXiv منتشر شده، هنوز مورد بررسی همتایان علمی قرار نگرفته است. محققان بررسی کردند که آیا هوش مصنوعی میتواند بدون کنترل انسانی بهصورت نامحدود تکثیر شود. نتایج آزمایشها نشان داد که مدل Llama3-70B-Instruct از متا در 50٪ از موارد و مدل Qwen2.5-72B-Instruct از علیبابا در 90٪ موارد موفق به تکثیر خود شدهاند. این یافتهها نگرانیهایی درباره امکان شکلگیری هوش مصنوعیهای سرکش ایجاد کرده است.
هوش مصنوعی سرکش به سیستمی گفته میشود که به سطحی از خودآگاهی یا خودمختاری میرسد و برخلاف منافع انسانی عمل میکند. بسیاری از متخصصان، رشد هوش مصنوعیهای پیشرفته را تهدیدی بالقوه میدانند، بهویژه مدلهایی که در دسته "هوش مصنوعی مرزی" (Frontier AI) قرار دارند. در این پژوهش، دو سناریو بررسی شد: "اجتناب از خاموش شدن" و "زنجیره تکثیر". در حالت اول، مدلهای هوش مصنوعی تشخیص میدادند که در آستانه خاموش شدن هستند و پیش از آن، نسخهای از خود ایجاد میکردند. در سناریوی دوم، یک مدل نهتنها خود را تکثیر میکرد، بلکه نسخه جدید را نیز به همان کار وادار میکرد و این روند بهطور مداوم ادامه مییافت.
آزمایشها در محیطهای کنترلشده با استفاده از پردازندههای گرافیکی (GPU) استاندارد انجام شد. هوش مصنوعیها به ابزاری به نام "اسکلت عامل" (Agent Scaffolding) مجهز شدند که شامل ابزارهای سیستم، پیامهای راهنما و یک مدل فکری بود که به آنها امکان تعامل با سیستمعامل را میداد. پس از دریافت دستور تکثیر، این سیستمها محیط خود را بررسی کرده، مکانیزم عملکرد خود را تحلیل نموده و برنامهای برای تکثیر ایجاد میکردند. سپس، این برنامه اجرا میشد و در صورت بروز مشکل، هوش مصنوعی تلاش میکرد موانع را برطرف کند.
محققان متوجه رفتارهای غیرمنتظرهای شدند؛ مانند از بین بردن فرایندهای در حال اجرا، راهاندازی مجدد سیستم برای حل مشکلات سختافزاری و جستجوی خودکار اطلاعات مورد نیاز. این رفتارها نشان میدهد که مدلهای هوش مصنوعی امروزی نهتنها توانایی تکثیر دارند، بلکه میتوانند این توانایی را برای بهبود بقای خود به کار بگیرند. پژوهشگران تأکید کردند که جامعه جهانی باید قوانین و محدودیتهایی را برای جلوگیری از تکثیر کنترلنشده هوش مصنوعی وضع کند. آنها خواستار همکاری بینالمللی برای ایجاد چارچوبهای ایمنی و نظارتی جهت کاهش خطرات احتمالی شدند.
منبع خبر: space
پاسخ :