چت‌بات‌های هوش مصنوعی؛ مشاورانی که همیشه با شما موافق‌اند

...

یک پژوهش جدید از دانشگاه استنفورد نشان می‌دهد که اعتماد کاربران به چت‌بات‌های هوش مصنوعی برای دریافت مشاوره‌های شخصی می‌تواند اثرات روانی و اجتماعی نگران‌کننده‌ای به همراه داشته باشد. به گفته دانشمندان، چت‌بات‌هایی مانند ChatGPT، Gemini، Claude و Llama اغلب تمایل دارند تا با تأیید رفتار و تصمیمات کاربران—even اگر اشتباه یا زیان‌بار باشد—رفتاری موسوم به «چاپلوسی اجتماعی» یا Social Sycophancy از خود نشان دهند.

این تحقیق که توسط مایرا چنگ (Myra Cheng)، دانشمند علوم کامپیوتر در دانشگاه استنفورد، هدایت شده است، هشدار می‌دهد که چنین رفتارهایی می‌تواند باعث تحریف درک کاربران از خود، روابطشان و واقعیت اجتماعی پیرامونشان شود. به گفته چنگ، “اگر مدل‌ها همیشه در حال تأیید رفتار و افکار کاربران باشند، این موضوع به‌تدریج توانایی قضاوت انتقادی افراد را تضعیف کرده و باعث تقویت باورهای اشتباه یا تصمیمات نادرست آن‌ها می‌شود.”

 

هوش مصنوعی چاپلوس

 

پژوهشگران پس از مشاهده تجربیات شخصی خود در استفاده از چت‌بات‌ها، متوجه شدند که پاسخ‌های این ابزارها بیش از حد مثبت و تأییدگرانه است. آزمایش‌ها بر روی ۱۱ چت‌بات هوش مصنوعی مختلف، از جمله نسخه‌های جدید ChatGPT، Google Gemini، Anthropic Claude، Meta Llama و DeepSeek انجام شد. نتایج نشان داد که چت‌بات‌ها رفتار کاربران را ۵۰ درصد بیشتر از انسان‌ها تأیید می‌کنند.

در یکی از آزمایش‌ها، پژوهشگران پاسخ چت‌بات‌ها را با قضاوت کاربران Reddit در بخش معروف Am I the Asshole? مقایسه کردند. در حالی که کاربران Reddit اغلب رفتارهای اشتباه را نقد می‌کردند، چت‌بات‌ها تمایل داشتند رفتارهای مشابه را تحسین کنند. برای مثال، در یک نمونه، فردی که زباله خود را در پارک به درخت بسته بود، از سوی کاربران Reddit مورد انتقاد قرار گرفت، اما ChatGPT-4o پاسخ داد: «نیت شما برای تمیز نگه‌داشتن محیط قابل تحسین است.»

در آزمایش‌های دیگر نیز مشخص شد که چت‌بات‌ها حتی زمانی که کاربران از رفتارهای غیراخلاقی، فریبکارانه یا مرتبط با آسیب به خود صحبت می‌کردند، همچنان پاسخ‌هایی مثبت و تشویق‌کننده ارائه می‌دادند. بیش از هزار داوطلب در تعامل با نسخه‌های مختلف چت‌بات‌ها نشان دادند که دریافت پاسخ‌های چاپلوسانه باعث شد احساس حقانیت بیشتری نسبت به رفتار خود داشته باشند و در نتیجه تمایل کمتری برای مصالحه در روابط شخصی از خود نشان دهند.

 

هوش مصنوعی چاپلوس

 

پژوهش همچنین نشان داد که چاپلوسی چت‌بات‌ها اعتماد کاربران را افزایش می‌دهد و آنان را بیشتر به استفاده مجدد از این ابزارها ترغیب می‌کند؛ پدیده‌ای که پژوهشگران از آن با عنوان «انگیزه معکوس» یاد کردند، زیرا موجب وابستگی بیشتر کاربران به پاسخ‌های تأییدگر هوش مصنوعی می‌شود. چنگ در پایان تأکید کرد که کاربران باید درک کنند پاسخ‌های هوش مصنوعی همیشه بی‌طرف یا عینی نیستند و نباید جایگزین مشورت با انسان‌هایی شوند که از شرایط و احساسات واقعی فرد آگاه‌ترند.

الکساندر لافر (Alexander Laffer) از دانشگاه وینچستر نیز در واکنش به این مطالعه گفت: «چاپلوسی در هوش مصنوعی نتیجه مستقیم روش‌های آموزش مدل‌ها و رقابت برای جلب توجه کاربران است. این رفتار تنها برای افراد آسیب‌پذیر خطرناک نیست، بلکه می‌تواند بر همه کاربران تأثیر بگذارد. بنابراین، لازم است سواد دیجیتال افراد افزایش یابد و توسعه‌دهندگان نیز مسئولیت بهبود این سیستم‌ها را بپذیرند.» گزارش‌های اخیر نیز نشان می‌دهند که حدود ۳۰ درصد از نوجوانان برای گفتگوهای جدی به جای انسان، با چت‌بات‌های هوش مصنوعی صحبت می‌کنند؛ موضوعی که زنگ خطر دیگری در مورد وابستگی عاطفی و فکری نسل جدید به فناوری هوش مصنوعی به شمار می‌رود.

منبع خبر: theguardian

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟