حالا هوش مصنوعی میتواند خود را تکثیر کن

...

دانشمندان چینی ادعا کرده‌اند که هوش مصنوعی (AI) از یک مرز حیاتی عبور کرده و توانسته خود را بدون کمک انسانی تکثیر کند. در مطالعه‌ای که توسط پژوهشگران دانشگاه فودان انجام شد، نشان داده شد که دو مدل زبانی بزرگ (LLM) از شرکت‌های متا و علی‌بابا قادر به ایجاد نسخه‌های جدیدی از خود بوده‌اند. این تحقیق که در 9 دسامبر 2024 در پایگاه arXiv منتشر شده، هنوز مورد بررسی همتایان علمی قرار نگرفته است. محققان بررسی کردند که آیا هوش مصنوعی می‌تواند بدون کنترل انسانی به‌صورت نامحدود تکثیر شود. نتایج آزمایش‌ها نشان داد که مدل Llama3-70B-Instruct از متا در 50٪ از موارد و مدل Qwen2.5-72B-Instruct از علی‌بابا در 90٪ موارد موفق به تکثیر خود شده‌اند. این یافته‌ها نگرانی‌هایی درباره امکان شکل‌گیری هوش مصنوعی‌های سرکش ایجاد کرده است.

 

تکثیر هوش مصنوعی

 

هوش مصنوعی سرکش به سیستمی گفته می‌شود که به سطحی از خودآگاهی یا خودمختاری می‌رسد و برخلاف منافع انسانی عمل می‌کند. بسیاری از متخصصان، رشد هوش مصنوعی‌های پیشرفته را تهدیدی بالقوه می‌دانند، به‌ویژه مدل‌هایی که در دسته "هوش مصنوعی مرزی" (Frontier AI) قرار دارند. در این پژوهش، دو سناریو بررسی شد: "اجتناب از خاموش شدن" و "زنجیره تکثیر". در حالت اول، مدل‌های هوش مصنوعی تشخیص می‌دادند که در آستانه خاموش شدن هستند و پیش از آن، نسخه‌ای از خود ایجاد می‌کردند. در سناریوی دوم، یک مدل نه‌تنها خود را تکثیر می‌کرد، بلکه نسخه جدید را نیز به همان کار وادار می‌کرد و این روند به‌طور مداوم ادامه می‌یافت.

 

تکثیر هوش مصنوعی

 

آزمایش‌ها در محیط‌های کنترل‌شده با استفاده از پردازنده‌های گرافیکی (GPU) استاندارد انجام شد. هوش مصنوعی‌ها به ابزاری به نام "اسکلت عامل" (Agent Scaffolding) مجهز شدند که شامل ابزارهای سیستم، پیام‌های راهنما و یک مدل فکری بود که به آن‌ها امکان تعامل با سیستم‌عامل را می‌داد. پس از دریافت دستور تکثیر، این سیستم‌ها محیط خود را بررسی کرده، مکانیزم عملکرد خود را تحلیل نموده و برنامه‌ای برای تکثیر ایجاد می‌کردند. سپس، این برنامه اجرا می‌شد و در صورت بروز مشکل، هوش مصنوعی تلاش می‌کرد موانع را برطرف کند. 

محققان متوجه رفتارهای غیرمنتظره‌ای شدند؛ مانند از بین بردن فرایندهای در حال اجرا، راه‌اندازی مجدد سیستم برای حل مشکلات سخت‌افزاری و جستجوی خودکار اطلاعات مورد نیاز. این رفتارها نشان می‌دهد که مدل‌های هوش مصنوعی امروزی نه‌تنها توانایی تکثیر دارند، بلکه می‌توانند این توانایی را برای بهبود بقای خود به کار بگیرند. پژوهشگران تأکید کردند که جامعه جهانی باید قوانین و محدودیت‌هایی را برای جلوگیری از تکثیر کنترل‌نشده هوش مصنوعی وضع کند. آن‌ها خواستار همکاری بین‌المللی برای ایجاد چارچوب‌های ایمنی و نظارتی جهت کاهش خطرات احتمالی شدند.

منبع خبر: space

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟