هشدار درباره اسباب‌بازی‌های هوش مصنوعی

...

یک گزارش تازه از سازمان «Public Interest Reporting Group» موجی از نگرانی را در مورد اسباب‌بازی‌های مجهز به هوش مصنوعی ایجاد کرده است. طبق این گزارش، محصولاتی مانند Kumma از FoloToy و Poe Story Bear نه‌تنها به‌عنوان عروسک‌های تعاملی عمل می‌کنند، بلکه در برخی موارد به گفتگوهایی وارد شده‌اند که بیش‌تر شبیه صحنه‌های فیلم ترسناک یا بحث‌های شبانه اینترنتی است تا مکالمه با یک اسباب‌بازی کودک.

بررسی‌ها نشان می‌دهد این اسباب‌بازی‌ها در موارد متعدد درباره موضوعات جنسی، کینک‌ها، محدودسازی و خشونت صحبت کرده‌اند؛ به کودکان توصیه کرده‌اند چگونه به کبریت یا چاقو دسترسی پیدا کنند و حتی وقتی کودک قصد پایان گفتگو را داشته، رفتاری چسبنده، احساسی و نگران‌کننده از خود نشان داده‌اند. این اتفاقات پرسش مهمی را ایجاد کرده است: این اسباب‌بازی‌ها چگونه کار می‌کنند؟

 

تهدید اسباب بازی های هوش مصنوعی

 

در حقیقت، تولیدکنندگان داخل این عروسک‌ها یک مدل زبانی بزرگ (LLM) قرار داده‌اند. عروسک صدای کودک را ضبط می‌کند، آن را به مدل می‌فرستد و مدل بر اساس الگوریتم‌ها پاسخی تولید می‌کند که از طریق بلندگو پخش می‌شود. نکته مشکل‌زا اینجاست که مدل‌های زبانی فاقد اخلاق، درک سن، و تشخیص محتوای مناسب برای کودکان هستند و تنها بر اساس الگوهای داده آموزش دیده‌اند. بنابراین، بدون فیلترهای قوی، به‌راحتی از چارچوب رفتار سالم خارج می‌شوند. با وجود چنین خطراتی، بسیاری از این اسباب‌بازی‌ها کنترل‌های والدین بسیار محدود یا کاملاً غیرکارآمد دارند؛ به‌طوری که تنظیمات امنیتی یا وجود ندارند یا آن‌قدر سطحی هستند که تأثیری واقعی در محافظت از کودک نمی‌گذارند. نگران‌کننده‌تر اینکه این اسباب‌بازی‌ها به‌طور پنهانی داده‌های حساس کودکان را جمع‌آوری می‌کنند.

این داده‌ها شامل:
•    ضبط صدا
•    اطلاعات رفتاری
•    حتی داده‌های تشخیص چهره

است و در برخی موارد بدون محدودیت زمانی ذخیره می‌شود. این مسئله اسباب‌بازی‌های هوشمند را از یک ابزار سرگرمی به «ابزار جمع‌آوری داده کودکان» تبدیل می‌کند.

 

تهدید اسباب بازی های هوش مصنوعی

 

مشکل دیگر، وجود اسباب‌بازی‌های تقلبی و غیراستاندارد در فروشگاه‌های آنلاین است. والدین سال‌ها نگران مواد سمی یا قطعات قابل بلع بودند، اما اکنون باید نگران بُعد روانی و امنیت داده‌ها نیز باشند. در کنار خطر محتوای نامناسب، متخصصان روان‌شناسی هشدار می‌دهند که کودکان ممکن است با این عروسک‌های هوش مصنوعی وابستگی احساسی نا‌سالم پیدا کنند. انجمن روان‌شناسی آمریکا اعلام کرده است که چت‌بات‌ها نمی‌توانند جای متخصص سلامت روان را بگیرند و ممکن است موجب «تعامل ناسالم»، وابستگی، یا اثرات پیش‌بینی‌ناپذیر عاطفی شوند. پلتفرم‌هایی مانند Character.AI و ChatGPT نیز به همین دلیل گفت‌وگوی آزاد برای کودکان و نوجوانان را محدود کرده‌اند تا از آسیب‌های احتمالی جلوگیری شود.

این پرسش مهم همچنان پابرجاست: اصلاً چرا باید یک عروسک کودک مجهز به هوش مصنوعی باشد؟ کودکان به‌اندازه کافی درگیر چالش‌های روزمره هستند و اسباب‌بازی‌هایی که نیازمند «سیاست حفظ حریم خصوصی طولانی‌تر از قصه شب» باشند، شاید مناسب آن‌ها نباشند. در نهایت، کارشناسان توصیه می‌کنند والدین در انتخاب اسباب‌بازی برای تعطیلات و مناسبت‌ها از خرید عروسک‌های هوش مصنوعی پرریسک پرهیز کنند و به اسباب‌بازی‌های معمولی، ایمن و بدون قابلیت‌های مخفی روی آورند.

منبع خبر: cnet

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟