دست‌کاری تصاویر توسط هوش مصنوعی سخت‌تر می‌شود

...

MIT نوعی «ماسک» برای تصاویر ساخته است که با چشم قابل دیدن نیست و می‌تواند تصاویر ویرایش شده توسط مدل‌های مختلف هوش مصنوعی را با خارج کردن آن‌ها از حالت طبیعی مشخص کند و با این ترفند از دست‌کاری تصاویر توسط هوش مصنوعی جلوگیری کنند.

تیمی از محققان MIT تکنیک جدیدی به نام PhotoGuard ایجاد کرده‌اند که هدف آن جلوگیری از دست‌کاری غیرمجاز تصاویر توسط سیستم‌های هوش مصنوعی است. از مدل‌های تولید تصویر هوش مصنوعی مانند Midjourney و Stable Diffusion را می‌توان برای ویرایش تصاویر استفاده کرد. مثل افزودن نواحی جدید به تصویر از طریق رنگ‌آمیزی، یا برش دادن اشیا و ترکیب مجدد آن‌ها با دیگران، یا مانند گرفتن صورت یک فرد و جایگزین کردن آن با صورت شخص دیگر. دانشمندان MIT ماسکی را ایجاد کردند که اساساً یک ماسک محافظ است که می‌تواند از دست‌کاری این مدل‌ها در تصاویر جلوگیری کند. این ماسک‌ها برای چشم انسان نامرئی هستند و هنگام دست‌کاری تصویر با یک مدل مولد تصویر هوش مصنوعی باعث می‌شوند که تصویر خروجی مخدوش به نظر برسد و از حالت طبیعی خود خارج شود. محققان در مقاله‌ای نوشتند: "با اضافه کردن این ماسک به تصویر اصلی قبل از اینکه توسط مدل‌های تصویر هوش مصنوعی دست‌کاری شود، می‌توان از دست‌کاری تصویر جلوگیری کرد. PhotoGuard  از طریق GitHub تحت مجوز MIT قابل دسترسی است به این معنی که می‌توان از آن به صورت تجاری استفاده کرد اما نیاز به حفظ حق چاپ دارد. هدف PhotoGuard بهبود تشخیص تصاویر ساخته شده با دیپ فیک است. تیم فنی PhotoGuard استدلال می‌کند که اگرچه رویکردهای دیگری مثل واترمارک قبلاً برای اهداف مشابه مورد استفاده قرار گرفته است، اما از تصاویر در برابر دست‌کاری محافظت نمی‌کنند. PhotoGuard برای تکمیل حفاظت‌های واترمارک طراحی شده است.

image-generator-AI

با رایج‌تر شدن استفاده از مدل‌های تصویری هوش مصنوعی مانند DALL-E و Stable Diffusion، به نظر می‌رسد موارد سوءاستفاده به‌ویژه در رسانه‌های اجتماعی روبه‌افزایش است. تصاویری که توسط هوش مصنوعی رئیس‌جمهور سابق، ترامپ  را در آغوش دکتر فائوچی نشان می‌دهد، نشانه‌های اولیه مشکلاتی است که ممکن است به وجود بیاید. نیاز به شناسایی آثار تولید شده توسط هوش مصنوعی در حال افزایش است. در حالی که تشخیص این آثار تولید شده با هوش مصنوعی برای متخصصان این حوزه ممکن است ولی برای افراد عادی ممکن است بسیار سخت و یا حتی غیر ممکن باشد. برخی از تیم‌های تحقیقاتی و شرکت‌های بزرگ هوش مصنوعی در تلاش هستند تا این امر را برای عموم مردم عادی آسان‌تر کنند. OpenAI سازنده‌ مدل‌های هوش مصنوعی DALL-E و ChatGPT این هفته متعهد شدند در مورد راه‌هایی برای تعیین اینکه آیا یک قطعه محتوای صوتی یا بصری توسط هوش مصنوعی تولید می‌شود یا خیر کار کنند.

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟