
• محققان MIT از برچسب گذاری اجباری محتوای هوش مصنوعی و قوانین سختگیرانهتر هوش مصنوعی حمایت میکنند.
محققان و دانشگاهیان MIT با تنظیم یک سند از دولت ایالات متحده خواستهاند تا با استفاده از مقررات موجود، حاکمیت و نظارت بر هوش مصنوعی را گسترش دهد. این سند 10 صفحه ای در مورد ایمنی هوش مصنوعی پیشنهاد می کند که چارچوب های قانونی فعلی باید هوش مصنوعی را پوشش دهد، مانند گسترش مقررات مراقبتی برای تشخیص محتوای تولید شده با هوش مصنوعی. آنها همچنین می خواهند هوش مصنوعی تحت پوشش قوانین تنظیم کننده فعالیت های دولتی از جمله پلیس باشد. این گروه گفت که قوانین و مقررات مربوط به هوش مصنوعی باید توسط همان نهادی اجرا شود که بر اعمال انسان نظارت و قانون گذاری میکند. در این سیاست آمده است: همان طور که فعالیت های انسانی بدون هوش مصنوعی بر اساس قوانینی تنظیم می شود، استفاده از هوش مصنوعی در زندگی انسان ها هم نیز باید به طور مشابه بر اساس قوانینی تنظیم شود. توسعه، فروش و استفاده از سیستمهای هوش مصنوعی، در صورت امکان، باید توسط همان استانداردها و رویههایی اداره شود که انسانها بدون هوش مصنوعی در حوزههای کاربردی هوش مصنوعی عمل میکنند. گروه MIT ادعا می کند که این امر تضمین می کند که برنامه های کاربردی هوش مصنوعی و حوزه های با خطر بالاتر تحت پوشش قوانین موجود قرار می گیرند. یکی از این حوزهها وسایل نقلیه خودران است که مطابق با استانداردهایی هستند که توسط انسان اداره میشوند. نویسندگان گزارش استدلال می کنند که کسانی که سیستم های هوش مصنوعی همه منظوره مانند ChatGPT می سازند، باید قبل از انتشار، هدف مورد نظر چنین سیستمی را شناسایی کنند. آنها همچنین پیشنهاد میکنند که تنظیم کنندگان قوانین، قوانینی را برای تعریف حوزه کاربردی و استفاده های مورد نظر سیستم های هوش مصنوعی صادر کنند.
این گروه همچنین خواستار شفاف سازی درباره نقض مالکیت معنوی ناشی از هوش مصنوعی است؛ از جمله اینکه سازندگان چگونه میتوانند از نقض احتمالی مالکیت و حق نسخه برداری محافظت کنند و آنها را شناسایی کنند. یکی از راههای پیشنهادی، برچسبگذاری اجباری محتوای تولید شده توسط هوش مصنوعی است. در سند تنظیم شده از طرف کارشناسان MIT آمده است: مشخص نیست که آیا چارچوبهای قانونی و نظارتی کنونی در مورد هوش مصنوعی اعمال میشود و آیا این چارچوبها به وظایف خود عمل میکنند یا خیر. چیزی برای جلوگیری از انتشار و استفاده از سیستمهای مخاطرهآمیز وجود ندارد و انگیزه کمی برای کشف، فاش کردن یا اصلاح مسائل پیشگیرانه وجود دارد. شفافیت و نظارت بیشتری در مورد هوش مصنوعی برای تسهیل توسعه و استقرار هوش مصنوعی مفید و درک کاملتر و روانتر از مزایای بالقوه هوش مصنوعی برای همه آمریکاییها مورد نیاز است.
پاسخ :