کارشناسان دانشگاه MIT خواستار نظارت بر هوش مصنوعی شدند

...

• محققان MIT از برچسب گذاری اجباری محتوای هوش مصنوعی و قوانین سخت‌گیرانه‌تر هوش مصنوعی حمایت می‌کنند.

محققان و دانشگاهیان MIT با تنظیم یک سند از دولت ایالات متحده خواسته‌اند تا با استفاده از مقررات موجود، حاکمیت و نظارت بر هوش مصنوعی را گسترش دهد. این سند 10 صفحه ای در مورد ایمنی هوش مصنوعی پیشنهاد می کند که چارچوب های قانونی فعلی باید هوش مصنوعی را پوشش دهد، مانند گسترش مقررات مراقبتی برای تشخیص محتوای تولید شده با هوش مصنوعی. آنها همچنین می خواهند هوش مصنوعی تحت پوشش قوانین تنظیم کننده فعالیت های دولتی از جمله پلیس باشد. این گروه گفت که قوانین و مقررات مربوط به هوش مصنوعی باید توسط همان نهادی اجرا شود که بر اعمال انسان نظارت و قانون گذاری می‌کند. در این سیاست آمده است: همان طور که فعالیت های انسانی بدون هوش مصنوعی بر اساس قوانینی تنظیم می شود، استفاده از هوش مصنوعی در زندگی انسان ها هم نیز باید به طور مشابه بر اساس قوانینی تنظیم شود. توسعه، فروش و استفاده از سیستم‌های هوش مصنوعی، در صورت امکان، باید توسط همان استانداردها و رویه‌هایی اداره شود که انسان‌ها بدون هوش مصنوعی در حوزه‌های کاربردی هوش مصنوعی عمل می‌کنند. گروه MIT ادعا می کند که این امر تضمین می کند که برنامه های کاربردی هوش مصنوعی و حوزه های با خطر بالاتر تحت پوشش قوانین موجود قرار می گیرند. یکی از این حوزه‌ها وسایل نقلیه خودران است که مطابق با استانداردهایی هستند که توسط انسان اداره می‌شوند. نویسندگان گزارش استدلال می کنند که کسانی که سیستم های هوش مصنوعی همه منظوره مانند ChatGPT می سازند، باید قبل از انتشار، هدف مورد نظر چنین سیستمی را شناسایی کنند. آن‌ها همچنین پیشنهاد می‌کنند که تنظیم‌ کنندگان قوانین، قوانینی را برای تعریف حوزه کاربردی و استفاده های مورد نظر سیستم های هوش مصنوعی صادر کنند.

قانونمندی هوش مصنوعی

این گروه همچنین خواستار شفاف سازی درباره نقض مالکیت معنوی ناشی از هوش مصنوعی است؛ از جمله اینکه سازندگان چگونه می‌توانند از نقض احتمالی مالکیت و حق نسخه برداری محافظت کنند و آنها را شناسایی کنند. یکی از راه‌های پیشنهادی، برچسب‌گذاری اجباری محتوای تولید شده توسط هوش مصنوعی است. در سند تنظیم شده از طرف کارشناسان MIT آمده است: مشخص نیست که آیا چارچوب‌های قانونی و نظارتی کنونی در مورد هوش مصنوعی اعمال می‌شود و آیا این چارچوب‌ها به وظایف خود عمل می‌کنند یا خیر. چیزی برای جلوگیری از انتشار و استفاده از سیستم‌های مخاطره‌آمیز وجود ندارد و انگیزه کمی برای کشف، فاش کردن یا اصلاح مسائل پیشگیرانه وجود دارد. شفافیت و نظارت بیشتری در مورد هوش مصنوعی برای تسهیل توسعه و استقرار هوش مصنوعی مفید و درک کامل‌تر و روان‌تر از مزایای بالقوه هوش مصنوعی برای همه آمریکایی‌ها مورد نیاز است. 
 

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟