شرکتهای فناوری پیشرو از جمله مایکروسافت، آمازون و آیبیام متعهد شدهاند که اقدامات ایمنی را که هنگام توسعه مدلهای پایه خود انجام میدهند، اعلام کنند. در طول اجلاس ایمنی هوش مصنوعی در سئول در کره، 16 شرکت توافق کردند که چارچوب های ایمنی را در مورد نحوه اندازه گیری خطرات مدل های هوش مصنوعی خود را منتشر کنند. همه شرکتها توافق کردهاند که در صورتی که خطرات ناشی از مدل های هوش مصنوعی قابل کنترل یا کاهش نباشد، توسعه آن مدل باید متوقف و کنار گذاشته شود. این تعهد برای مدلهای پایه اعمال میشود که یک مدل هوش مصنوعی است که میتواند برای طیف وسیعی از برنامهها، معمولاً یک سیستم چندوجهی که قادر به مدیریت تصاویر، متن و سایر ورودیها است، اعمال شود. متا، سامسونگ، توسعه دهنده کلود آنتروپیک و استارت آپ هوش مصنوعی ایلان ماسک از جمله امضاکنندگان این توافق هستند. OpenAI سازنده ChatGPT، موسسه نوآوری فناوری مستقر در دبی و ارائه دهنده اینترنت کره ای Naver نیز تعهدات ایمنی هوش مصنوعی را امضا کردند.Zhipu AI ، استارتآپ چینی که قرار است رقیب ChatGPT باشد نیز از جمله شرکتهایی بود که به این معاهده پیوست.
هر شرکتی که با این تعهدات موافقت کرده است، سطح خطراتی که مدلهای بنیادی آنها ایجاد میکنند و آنچه را که قصد انجام آن برای اطمینان از ایمن بودن مدل هوش مصنوعی خود برای استقرار دارند را به طور عمومی تشریح خواهد کرد. امضاکنندگان باید تدابیر امنیتی خود در این رابطه را قبل از نشست بعدی ایمنی هوش مصنوعی که در اوایل سال 2025 در فرانسه برگزار میشود، منتشر کنند. ریشی سوناک، نخست وزیر بریتانیا، گفت: این تعهدات تضمین میکند که شرکتهای پیشرو هوش مصنوعی در جهان شفافیت و پاسخگویی را در مورد برنامههای خود برای توسعه هوش مصنوعی ایمن ارائه خواهند کرد. این تعهدات بر اساس توافقنامه بلچلی که در نشست افتتاحیه ایمنی هوش مصنوعی در نوامبر گذشته امضا شد، طراحی شدهاند که خطرات هوش مصنوعی را طبقهبندی و دستهبندی میکند.
به گفته Beatriz Sanz Saiz، مدیر اطلاعات مشاوره جهانی و رهبر هوش مصنوعی EY، تعهد شرکتهای فناوری یک تعهد خوشایند است. سعیز گفت: ارائه شفافیت و پاسخگویی در توسعه و اجرای هوش مصنوعی قابل اعتماد ضروری است. در حالی که هوش مصنوعی دارای پتانسیل گستردهای برای مشاغل و افراد است، این پتانسیل تنها میتواند از طریق یک رویکرد وجدانی و اخلاقی برای توسعه آن استفاده شود.
پاسخ :