
در دنیای امروز که فناوریهای هوش مصنوعی با سرعت سرسامآوری در حال پیشرفت هستند، کلاهبرداریهای صوتی با تقلید صدا به یکی از جدیدترین تهدیدات امنیتی تبدیل شدهاند. اخیراً خبری منتشر شده که در آن صدای یکی از مقامات ارشد دولت ترامپ توسط هوش مصنوعی تقلید شده و از این طریق چند مقام سیاسی فریب خوردهاند. بر اساس گزارشی از واشنگتن پست، فردی ناشناس با استفاده از فناوری تقلید صدای مبتنی بر هوش مصنوعی، خود را به جای مارکو روبیو، وزیر امور خارجه آمریکا جا زده و با چند وزیر خارجه، یک فرماندار و یکی از اعضای کنگره تماس گرفته است. تماسها از طریق اپلیکیشن رمزنگاریشده Signal انجام شدهاند و هدف این تماسها احتمالاً دسترسی به اطلاعات محرمانه یا حسابهای رسمی بوده است.
کلاهبرداری صوتی با هوش مصنوعی چگونه انجام میشود؟
تقلید صدا با هوش مصنوعی (Voice Cloning) روشی است که در آن با استفاده از تنها ۳ ثانیه صدای ضبطشده از فرد، الگوریتمهای AI قادرند صدایی بسیار شبیه به او تولید کنند. این صدا میتواند بهگونهای طراحی شود که با خواندن متون مختلف، بسیار واقعی به نظر برسد؛ حتی تنفس، لهجه و الگوی گفتار شخص نیز شبیهسازی میشود. کارشناسان دانشگاه Charles Sturt استرالیا هشدار دادهاند که ویدیوهای کوتاه در شبکههای اجتماعی مانند TikTok میتوانند منبع صدای افراد برای ساخت این تقلیدهای هوش مصنوعی باشند. کلاهبرداران از این صداها برای فریب خانوادهها، دوستان یا حتی مدیران بانکها و کسبوکارها استفاده میکنند.
نکات مهم برای جلوگیری از کلاهبرداری صوتی
کارشناسان امنیت سایبری دانشگاه روچستر آمریکا توصیههایی برای محافظت در برابر این تهدیدات ارائه کردهاند:
1. هرگز به تماسهای غیرمنتظره اعتماد نکنید، حتی اگر صدا آشنا باشد. بهتر است قبل از تماس، با پیام یا ایمیل هماهنگی انجام دهید.
2. به شماره تماس یا شناسه تماسگیرنده (Caller ID) اعتماد نکنید؛ چرا که این اطلاعات نیز قابل جعل هستند.
3. از کلمه رمز بین اعضای خانواده استفاده کنید تا بتوانید تماسهای واقعی را از جعلی تشخیص دهید.
4. اطلاعات شخصی خود مانند تاریخ تولد، شماره تلفن، نام حیوان خانگی یا نام میانی را در فضای مجازی منتشر نکنید. این اطلاعات ممکن است برای جعل هویت شما استفاده شوند.
5. لحن و کلمات شخص تماسگیرنده را با حالت معمول او مقایسه کنید. هرگونه تفاوت عجیب در گفتار، زنگ خطر است.
منبع خبر: euronews
پاسخ :