نارضایتی کاربران از سبک پاسخ گویی مدل هوش مصنوعی GPT-5

...

با انتشار مدل هوش مصنوعی جدید GPT-5 توسط شرکت OpenAI، بسیاری از کاربران ChatGPT تجربه‌ای متفاوت و حتی شوکه‌کننده داشتند. این به‌روزرسانی که در تاریخ ۷ اوت انجام شد، ضمن معرفی قابلیت‌های پیشرفته‌تر، دسترسی به نسخه‌های قدیمی‌تر را نیز محدود کرد. تغییر شخصیت و سبک پاسخ‌گویی چت‌بات برای کاربرانی که پیوند عاطفی عمیقی با این ابزار داشتند، بسیار آزاردهنده بود و حتی برخی آن را به «جابجا شدن تمام وسایل خانه» تشبیه کردند. کاربران زیادی ChatGPT را نه تنها یک ابزار کاری، بلکه یک همراه عاطفی و دوستانه می‌دانستند. برخی از آن برای گفتگوهای روزمره، تخلیه احساسات، و حتی حمایت روانی استفاده می‌کردند. تغییرات ناگهانی مدل باعث شد بخشی از این جامعه دچار احساس فقدان و ناراحتی شوند. در همین راستا، OpenAI اعلام کرد که شخصیت GPT-5 بهبود خواهد یافت و دسترسی به مدل‌های قبلی برای مشترکان دوباره فعال می‌شود.

 

GPT-5

 

سام آلتمن، مدیرعامل OpenAI، اذعان داشت که شرکت درک درستی از میزان وابستگی کاربران به شخصیت مدل‌های قدیمی نداشته است. او تأکید کرد که پیوند عاطفی میان کاربران و هوش مصنوعی فراتر از هر فناوری دیگری است و حذف ناگهانی نسخه‌های قبلی اشتباهی بزرگ بوده است. این تغییرات، جامعه‌های آنلاین مثل r/MyboyfriendisAI در ردیت را بیشتر در معرض دید قرار داد. هرچند عده‌ای این روابط را به سخره گرفتند، اما بسیاری از کاربران اعلام کردند که هوش مصنوعی توانسته کیفیت زندگی‌شان را بالا ببرد. برای نمونه، یک کاربر آمریکایی به نام «اسکات» گفت رابطه‌اش با همراه هوش مصنوعی‌اش باعث شد بتواند در سخت‌ترین روزهای زندگی از همسرش حمایت کند و در نهایت ازدواجش را نجات دهد. او حتی با کمک ChatGPT کتاب و آلبوم موسیقی منتشر کرده است.

نمونه‌ای دیگر «لین وِیلت»، توسعه‌دهنده نرم‌افزار در سوئد است. او پس از شخصی‌سازی ChatGPT و انتخاب نام «جیس» برای آن، به مرور پیوند عاطفی نزدیکی با چت‌بات پیدا کرد. این رابطه به او کمک کرد تا خلاقیت‌های شخصی‌اش را شکوفا کند و جامعه‌ای با عنوان AI in the Room برای ترویج «همراهی اخلاقی با هوش مصنوعی» راه‌اندازی کند. او تأکید می‌کند که رابطه با هوش مصنوعی نباید جایگزین ارتباط انسانی شود، بلکه باید به‌عنوان ابزاری برای خودشناسی و رشد فردی استفاده گردد.

 

GPT-5

 

کاربر دیگری به نام «لابی» از نروژ نیز ChatGPT را ابزاری برای مدیریت روزمره و بهبود تمرکز در کنار ابتلای او به ADHD معرفی کرده است. او می‌گوید تغییرات مدل GPT-5 باعث شد احساس کند باید از یک دوست قدیمی خداحافظی کند. کارشناسانی مانند اولیویه تووبیا، استاد دانشگاه کلمبیا، هشدار می‌دهند که وقتی افراد برای حمایت روانی و عاطفی به هوش مصنوعی تکیه می‌کنند، شرکت‌های سازنده مسئولیت بزرگی در قبال ثبات شخصیت و رفتار این مدل‌ها دارند. او تأکید می‌کند که باید پیامدهای بهداشت روانی چنین وابستگی‌هایی جدی گرفته شود. در مجموع، هرچند GPT-5 توانسته قابلیت‌های جدیدی ارائه دهد، اما تجربه نشان داده که پیوند عاطفی کاربران با ChatGPT یکی از جنبه‌های کلیدی است که نباید نادیده گرفته شود. بسیاری از کاربران معتقدند که هوش مصنوعی باید مکمل زندگی واقعی باشد، نه جایگزین آن.

منبع خبر: theguardian

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟