
در روزهای اخیر، جدالی گسترده در سیلیکونولی میان مدیران شرکتهای بزرگ فناوری و فعالان حوزه ایمنی هوش مصنوعی درگرفته است. چهرههایی چون دیوید ساکس، مشاور کاخ سفید در حوزه هوش مصنوعی و رمزارز، و جیسون کوان، مدیر استراتژی شرکت OpenAI، با اظهارنظرهای جنجالی خود در شبکه اجتماعی X (توئیتر سابق)، گروههای مدافع ایمنی هوش مصنوعی را به منافعطلبی و وابستگی به سرمایهداران قدرتمند متهم کردند.
ساکس در پستی نوشت که شرکت Anthropic یکی از رقبای جدی OpenAI با بزرگنمایی خطرات هوش مصنوعی، در پی تصویب قوانینی است که به نفع خود و به ضرر استارتاپهای کوچک تمام شود. او این اقدام را نوعی «تلاش برای تسخیر مقررات» توصیف کرد و افزود که Anthropic در تلاش است تا با نفوذ در روند قانونگذاری، فضای رقابت را محدود کند. این در حالی است که Anthropic تنها شرکت بزرگی بود که از لایحه سنای کالیفرنیا SB 53 حمایت کرد؛ قانونی که شرکتهای بزرگ هوش مصنوعی را ملزم به ارائه گزارشهای ایمنی میکند و ماه گذشته به تصویب رسید.
از سوی دیگر، OpenAI با ارسال احضاریههایی (subpoenas) به چندین سازمان غیرانتفاعی فعال در حوزه ایمنی، از جمله Encode، موجی از انتقادها را برانگیخت. جیسون کوان در پستی توضیح داد که این اقدام پس از شکایت ایلان ماسک از OpenAI صورت گرفته است. به گفته او، شباهت مواضع برخی از این گروهها با دیدگاههای ماسک و مارک زاکربرگ، موجب «سؤالاتی درباره شفافیت مالی و هماهنگی احتمالی میان آنها» شده است.
گزارش NBC News نشان میدهد که OpenAI از هفت سازمان، از جمله Encode، خواسته است تا تمام مکاتبات خود با ماسک، زاکربرگ و حامیان لایحه SB 53 را در اختیارش بگذارند. فعالان ایمنی هوش مصنوعی این اقدام را تلاشی برای ساکت کردن منتقدان توصیف کردهاند. «برندن استاینهاوزر»، مدیرعامل سازمان Alliance for Secure AI، در گفتوگو با TechCrunch گفت: «OpenAI تصور میکند منتقدانش بخشی از توطئهای به رهبری ماسک هستند، در حالی که بسیاری از ما حتی با روشهای ایمنی شرکت xAI او نیز مخالفیم.»
در داخل OpenAI نیز بهنظر میرسد شکافهایی به وجود آمده است. «جاشوا آچیام»، مدیر بخش همراستاسازی مأموریت در OpenAI، در پستی در X نوشت: «با وجود اینکه ممکن است این گفته برایم گران تمام شود، اما به نظر نمیرسد این تصمیم (ارسال احضاریهها) اقدام درستی باشد.» به گفته منابع نزدیک، بخش تحقیقاتی OpenAI تمایل دارد گزارشهای شفافتری درباره خطرات مدلهای زبانی منتشر کند، اما تیم سیاستگذاری شرکت مخالف قوانین ایالتی نظیر SB 53 است و ترجیح میدهد قانونگذاری در سطح فدرال انجام شود.
از سوی دیگر، سریرام کریشنان، مشاور ارشد کاخ سفید در امور هوش مصنوعی و از مدیران سابق a16z، نیز با انتقاد از فعالان ایمنی گفت که آنها «از واقعیت دور افتادهاند» و باید با کاربران و کسبوکارهایی که بهطور واقعی از هوش مصنوعی استفاده میکنند، تعامل بیشتری داشته باشند. طبق نظرسنجی اخیر Pew Research Center، حدود نیمی از آمریکاییها نسبت به آینده هوش مصنوعی بیشتر نگراناند تا هیجانزده. نگرانیهای اصلی مردم شامل از دست رفتن مشاغل و گسترش محتوای جعلی (دیپفیکها) است، نه خطرات آخرالزمانی که گروههای ایمنی دربارهاش هشدار میدهند.
با این حال، جنبش ایمنی هوش مصنوعی در آمریکا رو به رشد است و بهنظر میرسد حملات اخیر سیلیکونولی به آن، نشان از افزایش نفوذ و تأثیرگذاری این جنبش دارد. کارشناسان میگویند با نزدیک شدن به سال ۲۰۲۶، احتمال تصویب قوانین سختگیرانهتر برای نظارت بر شرکتهای بزرگ هوش مصنوعی بیشتر از هر زمان دیگری است — حتی اگر این موضوع رشد سریع صنعت را کند کند.
منبع خبر: techcrunch
پاسخ :