
یک دانشمند ژاپنی به نام تومویاسو هوریکاوا توانسته است تکنیکی نوآورانه را توسعه دهد که با استفاده از اسکنهای مغزی و هوش مصنوعی، تصاویر ذهنی انسان را به جملات دقیق و توصیفی تبدیل میکند. این دستاورد که در ۵ نوامبر در مجله Science Advances منتشر شده، گامی مهم در مسیر «خواندن ذهن» یا Brain-Reading محسوب میشود و توجه بسیاری از متخصصان علوم اعصاب و اخلاق فناوری را به خود جلب کرده است.
هوریکاوا که در آزمایشگاههای علوم ارتباطات شرکت NTT در نزدیکی توکیو فعالیت میکند، سالها روی تبدیل فعالیتهای مغزی به زبان طبیعی مطالعه کرده است. اگرچه پیش از این مدلهایی وجود داشتند که میتوانستند کلمات مورد تفکر افراد را به متن تبدیل کنند، اما بازسازی تصاویر ذهنی پیچیده به زبان، چالشی بسیار دشوار بود. روش جدید او با نام Mind-Captioning تلاش کرده این شکاف را پر کند.
این فناوری چگونه کار میکند؟
در این مطالعه، فعالیت مغزی شش شرکتکننده (چهار مرد و دو زن ۲۲ تا ۳۷ ساله) با استفاده از fMRI بررسی شد. شرکتکنندگان ۲۱۸۰ ویدئوی کوتاه بدون صدا تماشا کردند که شامل اشیاء، صحنهها و حرکات متفاوتی بود. در مرحله بعد:
1. مدلهای زبانی بزرگ (LLM) کپشنهای ویدئوها را به دنبالهای از اعداد تبدیل کردند.
2. هوریکاوا مدلهای سادهتری به نام «دیکودر» آموزش داد تا بین فعالیت مغز و این دنبالههای عددی ارتباط ایجاد کنند.
3. سپس از دیکودرها برای تفسیر فعالیت مغزی شرکتکنندگان هنگام تماشای ویدئوهای جدید استفاده شد.
4. در نهایت الگوریتمی دیگر با تولید متن قدمبهقدم، بهترین توصیف را براساس دادههای مغزی ایجاد کرد.
نکته جالب اینجاست که خروجی مدل به زبان انگلیسی بود؛ درحالیکه شرکتکنندگان ژاپنیزبان بودند. این موضوع نشان میدهد که مدل نیازی به فعال بودن نواحی زبانی مغز ندارد و تنها از اطلاعات بصری استفاده میکند.

کاربردهای بالقوه در سلامت و ارتباطات
این فناوری توانایی بالقوهای برای کمک به افرادی دارد که نمیتوانند بهطور طبیعی صحبت کنند. برای نمونه:
• مبتلایان به آفازی که به دلیل آسیب نواحی زبانی مغز، در تولید گفتار مشکل دارند
• بیماران ALS که بهتدریج قدرت گفتار و حرکت را از دست میدهند
• افراد اوتیسم غیرکلامی که توانایی بیان تجربیات خود را ندارند
کارشناسان معتقدند این روش میتواند ارتباط میان افراد و جهان بیرون را متحول کند.
چالشهای اخلاقی: تهدید بزرگ برای حریم خصوصی ذهن
با وجود جذابیت علمی، این فناوری نگرانیهای جدی اخلاقی ایجاد میکند. اگر روزی چنین مدلهایی به مصرف عمومی برسند، خصوصیترین افکار افراد میتواند در معرض خطر باشد. مارچلو ینکا، استاد اخلاق هوش مصنوعی و رئیس آتی انجمن نورو-اخلاق جهانی، این فناوری را «چالش نهایی حریم خصوصی» معرفی میکند. او هشدار میدهد که شرکتهایی مانند Neuralink نیز در حال پیشبرد فناوریهای رابط مغز و کامپیوتر هستند و باید قوانین سختگیرانهای برای جلوگیری از سوءاستفاده از اطلاعات عصبی وضع شود. این دادهها میتوانند اطلاعات بسیار حساس مانند نشانههای زودهنگام زوال عقل، افسردگی یا اختلالات روانی را آشکار کنند. بنابراین حفظ امنیت «دادههای عصبی» باید در اولویت باشد.
راهحلهای پیشنهادی برای حفظ امنیت ذهن
برخی تحقیقات جدید راهکارهایی ارائه کردهاند؛ مانند استفاده از کلمات کلیدی ذهنی که فرد تنها با فکر کردن به آنها اجازه فعالسازی سیستم خواندن ذهن را میدهد. همچنین متخصصان میگویند:
• دادههای عصبی باید ذاتا حساس در نظر گرفته شوند
• استفاده از آنها تنها با رضایت آگاهانه و محدود به کاربرد مشخص ممکن باشد
• پردازش باید تا جای ممکن درون دستگاه و تحت کنترل کاربر انجام شود

آیا این فناوری هماکنون قادر به خواندن افکار خصوصی است؟
هوریکاوا میگوید که نگران خواندهشدن افکار خصوصی نباشید. زیرا:
• مدل نیازمند دادههای گسترده و طولانیمدت از هر فرد است
• تنها صحنههای رایج را توصیف کرده و برای موقعیتهای غیرمعمول عملکرد دقیقی ندارد
• برای استفاده عملی بسیار دور از واقعیت است
به گفته او، این فناوری فعلاً با هدف تحقیقات علوم اعصاب توسعه یافته و تا تبدیل شدن به ابزار واقعی «خواندن ذهن»، فاصله زیادی دارد.
منبع خبر: edition.cnn

شاهین آقامعلی


پاسخ :