
با انتشار مدل هوش مصنوعی جدید GPT-5 توسط شرکت OpenAI، بسیاری از کاربران ChatGPT تجربهای متفاوت و حتی شوکهکننده داشتند. این بهروزرسانی که در تاریخ ۷ اوت انجام شد، ضمن معرفی قابلیتهای پیشرفتهتر، دسترسی به نسخههای قدیمیتر را نیز محدود کرد. تغییر شخصیت و سبک پاسخگویی چتبات برای کاربرانی که پیوند عاطفی عمیقی با این ابزار داشتند، بسیار آزاردهنده بود و حتی برخی آن را به «جابجا شدن تمام وسایل خانه» تشبیه کردند. کاربران زیادی ChatGPT را نه تنها یک ابزار کاری، بلکه یک همراه عاطفی و دوستانه میدانستند. برخی از آن برای گفتگوهای روزمره، تخلیه احساسات، و حتی حمایت روانی استفاده میکردند. تغییرات ناگهانی مدل باعث شد بخشی از این جامعه دچار احساس فقدان و ناراحتی شوند. در همین راستا، OpenAI اعلام کرد که شخصیت GPT-5 بهبود خواهد یافت و دسترسی به مدلهای قبلی برای مشترکان دوباره فعال میشود.
سام آلتمن، مدیرعامل OpenAI، اذعان داشت که شرکت درک درستی از میزان وابستگی کاربران به شخصیت مدلهای قدیمی نداشته است. او تأکید کرد که پیوند عاطفی میان کاربران و هوش مصنوعی فراتر از هر فناوری دیگری است و حذف ناگهانی نسخههای قبلی اشتباهی بزرگ بوده است. این تغییرات، جامعههای آنلاین مثل r/MyboyfriendisAI در ردیت را بیشتر در معرض دید قرار داد. هرچند عدهای این روابط را به سخره گرفتند، اما بسیاری از کاربران اعلام کردند که هوش مصنوعی توانسته کیفیت زندگیشان را بالا ببرد. برای نمونه، یک کاربر آمریکایی به نام «اسکات» گفت رابطهاش با همراه هوش مصنوعیاش باعث شد بتواند در سختترین روزهای زندگی از همسرش حمایت کند و در نهایت ازدواجش را نجات دهد. او حتی با کمک ChatGPT کتاب و آلبوم موسیقی منتشر کرده است.
نمونهای دیگر «لین وِیلت»، توسعهدهنده نرمافزار در سوئد است. او پس از شخصیسازی ChatGPT و انتخاب نام «جیس» برای آن، به مرور پیوند عاطفی نزدیکی با چتبات پیدا کرد. این رابطه به او کمک کرد تا خلاقیتهای شخصیاش را شکوفا کند و جامعهای با عنوان AI in the Room برای ترویج «همراهی اخلاقی با هوش مصنوعی» راهاندازی کند. او تأکید میکند که رابطه با هوش مصنوعی نباید جایگزین ارتباط انسانی شود، بلکه باید بهعنوان ابزاری برای خودشناسی و رشد فردی استفاده گردد.
کاربر دیگری به نام «لابی» از نروژ نیز ChatGPT را ابزاری برای مدیریت روزمره و بهبود تمرکز در کنار ابتلای او به ADHD معرفی کرده است. او میگوید تغییرات مدل GPT-5 باعث شد احساس کند باید از یک دوست قدیمی خداحافظی کند. کارشناسانی مانند اولیویه تووبیا، استاد دانشگاه کلمبیا، هشدار میدهند که وقتی افراد برای حمایت روانی و عاطفی به هوش مصنوعی تکیه میکنند، شرکتهای سازنده مسئولیت بزرگی در قبال ثبات شخصیت و رفتار این مدلها دارند. او تأکید میکند که باید پیامدهای بهداشت روانی چنین وابستگیهایی جدی گرفته شود. در مجموع، هرچند GPT-5 توانسته قابلیتهای جدیدی ارائه دهد، اما تجربه نشان داده که پیوند عاطفی کاربران با ChatGPT یکی از جنبههای کلیدی است که نباید نادیده گرفته شود. بسیاری از کاربران معتقدند که هوش مصنوعی باید مکمل زندگی واقعی باشد، نه جایگزین آن.
منبع خبر: theguardian
پاسخ :