
MIT نوعی «ماسک» برای تصاویر ساخته است که با چشم قابل دیدن نیست و میتواند تصاویر ویرایش شده توسط مدلهای مختلف هوش مصنوعی را با خارج کردن آنها از حالت طبیعی مشخص کند و با این ترفند از دستکاری تصاویر توسط هوش مصنوعی جلوگیری کنند.
تیمی از محققان MIT تکنیک جدیدی به نام PhotoGuard ایجاد کردهاند که هدف آن جلوگیری از دستکاری غیرمجاز تصاویر توسط سیستمهای هوش مصنوعی است. از مدلهای تولید تصویر هوش مصنوعی مانند Midjourney و Stable Diffusion را میتوان برای ویرایش تصاویر استفاده کرد. مثل افزودن نواحی جدید به تصویر از طریق رنگآمیزی، یا برش دادن اشیا و ترکیب مجدد آنها با دیگران، یا مانند گرفتن صورت یک فرد و جایگزین کردن آن با صورت شخص دیگر. دانشمندان MIT ماسکی را ایجاد کردند که اساساً یک ماسک محافظ است که میتواند از دستکاری این مدلها در تصاویر جلوگیری کند. این ماسکها برای چشم انسان نامرئی هستند و هنگام دستکاری تصویر با یک مدل مولد تصویر هوش مصنوعی باعث میشوند که تصویر خروجی مخدوش به نظر برسد و از حالت طبیعی خود خارج شود. محققان در مقالهای نوشتند: "با اضافه کردن این ماسک به تصویر اصلی قبل از اینکه توسط مدلهای تصویر هوش مصنوعی دستکاری شود، میتوان از دستکاری تصویر جلوگیری کرد. PhotoGuard از طریق GitHub تحت مجوز MIT قابل دسترسی است به این معنی که میتوان از آن به صورت تجاری استفاده کرد اما نیاز به حفظ حق چاپ دارد. هدف PhotoGuard بهبود تشخیص تصاویر ساخته شده با دیپ فیک است. تیم فنی PhotoGuard استدلال میکند که اگرچه رویکردهای دیگری مثل واترمارک قبلاً برای اهداف مشابه مورد استفاده قرار گرفته است، اما از تصاویر در برابر دستکاری محافظت نمیکنند. PhotoGuard برای تکمیل حفاظتهای واترمارک طراحی شده است.
با رایجتر شدن استفاده از مدلهای تصویری هوش مصنوعی مانند DALL-E و Stable Diffusion، به نظر میرسد موارد سوءاستفاده بهویژه در رسانههای اجتماعی روبهافزایش است. تصاویری که توسط هوش مصنوعی رئیسجمهور سابق، ترامپ را در آغوش دکتر فائوچی نشان میدهد، نشانههای اولیه مشکلاتی است که ممکن است به وجود بیاید. نیاز به شناسایی آثار تولید شده توسط هوش مصنوعی در حال افزایش است. در حالی که تشخیص این آثار تولید شده با هوش مصنوعی برای متخصصان این حوزه ممکن است ولی برای افراد عادی ممکن است بسیار سخت و یا حتی غیر ممکن باشد. برخی از تیمهای تحقیقاتی و شرکتهای بزرگ هوش مصنوعی در تلاش هستند تا این امر را برای عموم مردم عادی آسانتر کنند. OpenAI سازنده مدلهای هوش مصنوعی DALL-E و ChatGPT این هفته متعهد شدند در مورد راههایی برای تعیین اینکه آیا یک قطعه محتوای صوتی یا بصری توسط هوش مصنوعی تولید میشود یا خیر کار کنند.
پاسخ :