درگیری OpenAI با فعالان ایمنی هوش مصنوعی بالا گرفت

...

در روزهای اخیر، جدالی گسترده در سیلیکون‌ولی میان مدیران شرکت‌های بزرگ فناوری و فعالان حوزه ایمنی هوش مصنوعی درگرفته است. چهره‌هایی چون دیوید ساکس، مشاور کاخ سفید در حوزه هوش مصنوعی و رمزارز، و جیسون کوان، مدیر استراتژی شرکت OpenAI، با اظهارنظرهای جنجالی خود در شبکه اجتماعی X (توئیتر سابق)، گروه‌های مدافع ایمنی هوش مصنوعی را به منافع‌طلبی و وابستگی به سرمایه‌داران قدرتمند متهم کردند.

ساکس در پستی نوشت که شرکت Anthropic یکی از رقبای جدی OpenAI با بزرگ‌نمایی خطرات هوش مصنوعی، در پی تصویب قوانینی است که به نفع خود و به ضرر استارتاپ‌های کوچک تمام شود. او این اقدام را نوعی «تلاش برای تسخیر مقررات» توصیف کرد و افزود که Anthropic در تلاش است تا با نفوذ در روند قانون‌گذاری، فضای رقابت را محدود کند. این در حالی است که Anthropic تنها شرکت بزرگی بود که از لایحه سنای کالیفرنیا SB 53 حمایت کرد؛ قانونی که شرکت‌های بزرگ هوش مصنوعی را ملزم به ارائه گزارش‌های ایمنی می‌کند و ماه گذشته به تصویب رسید.

 

ایمنی در هوش مصنوعی

 

از سوی دیگر، OpenAI با ارسال احضاریه‌هایی (subpoenas) به چندین سازمان غیرانتفاعی فعال در حوزه ایمنی، از جمله Encode، موجی از انتقادها را برانگیخت. جیسون کوان در پستی توضیح داد که این اقدام پس از شکایت ایلان ماسک از OpenAI صورت گرفته است. به گفته او، شباهت مواضع برخی از این گروه‌ها با دیدگاه‌های ماسک و مارک زاکربرگ، موجب «سؤالاتی درباره شفافیت مالی و هماهنگی احتمالی میان آنها» شده است.

گزارش NBC News نشان می‌دهد که OpenAI از هفت سازمان، از جمله Encode، خواسته است تا تمام مکاتبات خود با ماسک، زاکربرگ و حامیان لایحه SB 53 را در اختیارش بگذارند. فعالان ایمنی هوش مصنوعی این اقدام را تلاشی برای ساکت کردن منتقدان توصیف کرده‌اند. «برندن استاین‌هاوزر»، مدیرعامل سازمان Alliance for Secure AI، در گفت‌وگو با TechCrunch گفت: «OpenAI تصور می‌کند منتقدانش بخشی از توطئه‌ای به رهبری ماسک هستند، در حالی که بسیاری از ما حتی با روش‌های ایمنی شرکت xAI او نیز مخالفیم.»

در داخل OpenAI نیز به‌نظر می‌رسد شکاف‌هایی به وجود آمده است. «جاشوا آچیام»، مدیر بخش هم‌راستاسازی مأموریت در OpenAI، در پستی در X نوشت: «با وجود اینکه ممکن است این گفته برایم گران تمام شود، اما به نظر نمی‌رسد این تصمیم (ارسال احضاریه‌ها) اقدام درستی باشد.» به گفته منابع نزدیک، بخش تحقیقاتی OpenAI تمایل دارد گزارش‌های شفاف‌تری درباره خطرات مدل‌های زبانی منتشر کند، اما تیم سیاست‌گذاری شرکت مخالف قوانین ایالتی نظیر SB 53 است و ترجیح می‌دهد قانون‌گذاری در سطح فدرال انجام شود.

 

ایمنی در هوش مصنوعی

 

از سوی دیگر، سریرام کریشنان، مشاور ارشد کاخ سفید در امور هوش مصنوعی و از مدیران سابق a16z، نیز با انتقاد از فعالان ایمنی گفت که آنها «از واقعیت دور افتاده‌اند» و باید با کاربران و کسب‌وکارهایی که به‌طور واقعی از هوش مصنوعی استفاده می‌کنند، تعامل بیشتری داشته باشند. طبق نظرسنجی اخیر Pew Research Center، حدود نیمی از آمریکایی‌ها نسبت به آینده هوش مصنوعی بیشتر نگران‌اند تا هیجان‌زده. نگرانی‌های اصلی مردم شامل از دست رفتن مشاغل و گسترش محتوای جعلی (دیپ‌فیک‌ها) است، نه خطرات آخرالزمانی که گروه‌های ایمنی درباره‌اش هشدار می‌دهند.

با این حال، جنبش ایمنی هوش مصنوعی در آمریکا رو به رشد است و به‌نظر می‌رسد حملات اخیر سیلیکون‌ولی به آن، نشان از افزایش نفوذ و تأثیرگذاری این جنبش دارد. کارشناسان می‌گویند با نزدیک شدن به سال ۲۰۲۶، احتمال تصویب قوانین سخت‌گیرانه‌تر برای نظارت بر شرکت‌های بزرگ هوش مصنوعی بیشتر از هر زمان دیگری است — حتی اگر این موضوع رشد سریع صنعت را کند کند.

منبع خبر: techcrunch

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟