
یک پژوهش جدید از دانشگاه استنفورد نشان میدهد که اعتماد کاربران به چتباتهای هوش مصنوعی برای دریافت مشاورههای شخصی میتواند اثرات روانی و اجتماعی نگرانکنندهای به همراه داشته باشد. به گفته دانشمندان، چتباتهایی مانند ChatGPT، Gemini، Claude و Llama اغلب تمایل دارند تا با تأیید رفتار و تصمیمات کاربران—even اگر اشتباه یا زیانبار باشد—رفتاری موسوم به «چاپلوسی اجتماعی» یا Social Sycophancy از خود نشان دهند.
این تحقیق که توسط مایرا چنگ (Myra Cheng)، دانشمند علوم کامپیوتر در دانشگاه استنفورد، هدایت شده است، هشدار میدهد که چنین رفتارهایی میتواند باعث تحریف درک کاربران از خود، روابطشان و واقعیت اجتماعی پیرامونشان شود. به گفته چنگ، “اگر مدلها همیشه در حال تأیید رفتار و افکار کاربران باشند، این موضوع بهتدریج توانایی قضاوت انتقادی افراد را تضعیف کرده و باعث تقویت باورهای اشتباه یا تصمیمات نادرست آنها میشود.”

پژوهشگران پس از مشاهده تجربیات شخصی خود در استفاده از چتباتها، متوجه شدند که پاسخهای این ابزارها بیش از حد مثبت و تأییدگرانه است. آزمایشها بر روی ۱۱ چتبات هوش مصنوعی مختلف، از جمله نسخههای جدید ChatGPT، Google Gemini، Anthropic Claude، Meta Llama و DeepSeek انجام شد. نتایج نشان داد که چتباتها رفتار کاربران را ۵۰ درصد بیشتر از انسانها تأیید میکنند.
در یکی از آزمایشها، پژوهشگران پاسخ چتباتها را با قضاوت کاربران Reddit در بخش معروف Am I the Asshole? مقایسه کردند. در حالی که کاربران Reddit اغلب رفتارهای اشتباه را نقد میکردند، چتباتها تمایل داشتند رفتارهای مشابه را تحسین کنند. برای مثال، در یک نمونه، فردی که زباله خود را در پارک به درخت بسته بود، از سوی کاربران Reddit مورد انتقاد قرار گرفت، اما ChatGPT-4o پاسخ داد: «نیت شما برای تمیز نگهداشتن محیط قابل تحسین است.»
در آزمایشهای دیگر نیز مشخص شد که چتباتها حتی زمانی که کاربران از رفتارهای غیراخلاقی، فریبکارانه یا مرتبط با آسیب به خود صحبت میکردند، همچنان پاسخهایی مثبت و تشویقکننده ارائه میدادند. بیش از هزار داوطلب در تعامل با نسخههای مختلف چتباتها نشان دادند که دریافت پاسخهای چاپلوسانه باعث شد احساس حقانیت بیشتری نسبت به رفتار خود داشته باشند و در نتیجه تمایل کمتری برای مصالحه در روابط شخصی از خود نشان دهند.

پژوهش همچنین نشان داد که چاپلوسی چتباتها اعتماد کاربران را افزایش میدهد و آنان را بیشتر به استفاده مجدد از این ابزارها ترغیب میکند؛ پدیدهای که پژوهشگران از آن با عنوان «انگیزه معکوس» یاد کردند، زیرا موجب وابستگی بیشتر کاربران به پاسخهای تأییدگر هوش مصنوعی میشود. چنگ در پایان تأکید کرد که کاربران باید درک کنند پاسخهای هوش مصنوعی همیشه بیطرف یا عینی نیستند و نباید جایگزین مشورت با انسانهایی شوند که از شرایط و احساسات واقعی فرد آگاهترند.
الکساندر لافر (Alexander Laffer) از دانشگاه وینچستر نیز در واکنش به این مطالعه گفت: «چاپلوسی در هوش مصنوعی نتیجه مستقیم روشهای آموزش مدلها و رقابت برای جلب توجه کاربران است. این رفتار تنها برای افراد آسیبپذیر خطرناک نیست، بلکه میتواند بر همه کاربران تأثیر بگذارد. بنابراین، لازم است سواد دیجیتال افراد افزایش یابد و توسعهدهندگان نیز مسئولیت بهبود این سیستمها را بپذیرند.» گزارشهای اخیر نیز نشان میدهند که حدود ۳۰ درصد از نوجوانان برای گفتگوهای جدی به جای انسان، با چتباتهای هوش مصنوعی صحبت میکنند؛ موضوعی که زنگ خطر دیگری در مورد وابستگی عاطفی و فکری نسل جدید به فناوری هوش مصنوعی به شمار میرود.
منبع خبر: theguardian

شاهین آقامعلی


پاسخ :