
یک گزارش تازه از سازمان «Public Interest Reporting Group» موجی از نگرانی را در مورد اسباببازیهای مجهز به هوش مصنوعی ایجاد کرده است. طبق این گزارش، محصولاتی مانند Kumma از FoloToy و Poe Story Bear نهتنها بهعنوان عروسکهای تعاملی عمل میکنند، بلکه در برخی موارد به گفتگوهایی وارد شدهاند که بیشتر شبیه صحنههای فیلم ترسناک یا بحثهای شبانه اینترنتی است تا مکالمه با یک اسباببازی کودک.
بررسیها نشان میدهد این اسباببازیها در موارد متعدد درباره موضوعات جنسی، کینکها، محدودسازی و خشونت صحبت کردهاند؛ به کودکان توصیه کردهاند چگونه به کبریت یا چاقو دسترسی پیدا کنند و حتی وقتی کودک قصد پایان گفتگو را داشته، رفتاری چسبنده، احساسی و نگرانکننده از خود نشان دادهاند. این اتفاقات پرسش مهمی را ایجاد کرده است: این اسباببازیها چگونه کار میکنند؟

در حقیقت، تولیدکنندگان داخل این عروسکها یک مدل زبانی بزرگ (LLM) قرار دادهاند. عروسک صدای کودک را ضبط میکند، آن را به مدل میفرستد و مدل بر اساس الگوریتمها پاسخی تولید میکند که از طریق بلندگو پخش میشود. نکته مشکلزا اینجاست که مدلهای زبانی فاقد اخلاق، درک سن، و تشخیص محتوای مناسب برای کودکان هستند و تنها بر اساس الگوهای داده آموزش دیدهاند. بنابراین، بدون فیلترهای قوی، بهراحتی از چارچوب رفتار سالم خارج میشوند. با وجود چنین خطراتی، بسیاری از این اسباببازیها کنترلهای والدین بسیار محدود یا کاملاً غیرکارآمد دارند؛ بهطوری که تنظیمات امنیتی یا وجود ندارند یا آنقدر سطحی هستند که تأثیری واقعی در محافظت از کودک نمیگذارند. نگرانکنندهتر اینکه این اسباببازیها بهطور پنهانی دادههای حساس کودکان را جمعآوری میکنند.
این دادهها شامل:
• ضبط صدا
• اطلاعات رفتاری
• حتی دادههای تشخیص چهره
است و در برخی موارد بدون محدودیت زمانی ذخیره میشود. این مسئله اسباببازیهای هوشمند را از یک ابزار سرگرمی به «ابزار جمعآوری داده کودکان» تبدیل میکند.

مشکل دیگر، وجود اسباببازیهای تقلبی و غیراستاندارد در فروشگاههای آنلاین است. والدین سالها نگران مواد سمی یا قطعات قابل بلع بودند، اما اکنون باید نگران بُعد روانی و امنیت دادهها نیز باشند. در کنار خطر محتوای نامناسب، متخصصان روانشناسی هشدار میدهند که کودکان ممکن است با این عروسکهای هوش مصنوعی وابستگی احساسی ناسالم پیدا کنند. انجمن روانشناسی آمریکا اعلام کرده است که چتباتها نمیتوانند جای متخصص سلامت روان را بگیرند و ممکن است موجب «تعامل ناسالم»، وابستگی، یا اثرات پیشبینیناپذیر عاطفی شوند. پلتفرمهایی مانند Character.AI و ChatGPT نیز به همین دلیل گفتوگوی آزاد برای کودکان و نوجوانان را محدود کردهاند تا از آسیبهای احتمالی جلوگیری شود.
این پرسش مهم همچنان پابرجاست: اصلاً چرا باید یک عروسک کودک مجهز به هوش مصنوعی باشد؟ کودکان بهاندازه کافی درگیر چالشهای روزمره هستند و اسباببازیهایی که نیازمند «سیاست حفظ حریم خصوصی طولانیتر از قصه شب» باشند، شاید مناسب آنها نباشند. در نهایت، کارشناسان توصیه میکنند والدین در انتخاب اسباببازی برای تعطیلات و مناسبتها از خرید عروسکهای هوش مصنوعی پرریسک پرهیز کنند و به اسباببازیهای معمولی، ایمن و بدون قابلیتهای مخفی روی آورند.
منبع خبر: cnet

شاهین آقامعلی


پاسخ :