متا اعلام کرده است که از دادهها و پستهای کاربران برای آموزش مدلهای هوش مصنوعی خود استفاده میکند و تنها کاربران اتحادیه اروپا میتوانند از آن انصراف دهند. این شرکت گفت که از محتوای عمومی موجود در پلتفرمهای رسانههای اجتماعی خود مانند اینستاگرام و فیس بوک برای آموزش مدلهای پایه هوش مصنوعی خود استفاده خواهد کرد، اما از دادههای کاربران زیر 18 سال استفاده نخواهد کرد. متا گفت که باید مدلهای خود را در مورد محتوای عمومی آموزش دهد، در غیر این صورت هوش مصنوعی آن زبانهای مهم منطقهای، فرهنگها یا موضوعات پرطرفدار در رسانههای اجتماعی را به درستی درک نخواهد کرد. در حال حاضر، هیچ قانون صریحی در اتحادیه اروپا وجود ندارد که شرکتها را از استفاده از دادههای کاربران برای آموزش مدلهای هوش مصنوعی منع کند. با این حال قوانین حفاظت از داده اتحادیه اروپا، بهویژه GDPR، کسبوکارها را ملزم میکند تا قبل از استفاده از دادههای کاربران، رضایت آنها را جلب کنند. کسبوکارها همچنین موظفند در مورد نحوه استفاده از دادههای کاربر شفاف سازی کنند و در هر زمان امکان لغو رضایت را فراهم کنند.
سایر شرکتهای توسعهدهنده هوش مصنوعی از جمله OpenAI و گوگل نیز همین کار را انجام میدهند، با این حال، متا ادعا میکند که شفافتر از رقبای خود است. این شرکت میگوید میلیاردها اعلان و ایمیل برای کاربران اروپایی ارسال کرده است و به آنها اطلاع داده است که میتوانند انصراف دهند تا از دادههای آنها برای آموزش مدلهای هوش مصنوعی متا استفاده نشود. استفانو فراتا، مدیر مشارکت جهانی متا برای سیاست حفظ حریم خصوصی در یک پست وبلاگی نوشت: رویکرد ما شفافتر است و کنترلهای آسانتری نسبت به بسیاری از همتایان صنعتی ما ارائه میکند که قبلاً مدلهای خود را بر روی اطلاعات عمومی آموزش دادهاند.
فراتا گفت: مدلها ممکن است بر روی پستهای به اشتراک گذاشته شده عمومی افراد آموزش ببینند، اما این پایگاه دادهای از اطلاعات فردی نیست و برای شناسایی هیچ فردی طراحی نشده است. این مدلها با بررسی اطلاعات افراد برای شناسایی الگوهایی مانند درک عبارات محاورهای یا فرهنگهای محلی و نه برای شناسایی یک فرد خاص یا اطلاعات آنها ساخته شده است. شفافیت متا در این مورد در حالی منتشر میشود که این شرکت به دلیل شیوههای مدیریت دادههای مربوط به هوش مصنوعی از طرف 11 شرکت غیرانتفاعی مورد شکایت قرار گرفته است.
پاسخ :