قابلیت تنظیم میزان استدلال در مدل هوش مصنوعی Gemini

...

در به‌روزرسانی جدید مدل هوش مصنوعی Gemini شرکت Google DeepMind، قابلیتی اضافه شده که به توسعه‌دهندگان اجازه می‌دهد میزان «تفکر» یا «استدلال» مدل را تنظیم کنند. هدف از این قابلیت، کاهش هزینه و مصرف انرژی است، زیرا مدل‌های استدلالی برای ارائه پاسخ‌های دقیق‌تر زمان و منابع بیشتری مصرف می‌کنند. این رویکرد جدید از اواخر سال گذشته مورد توجه شرکت‌های هوش مصنوعی قرار گرفته و هدف آن، ارتقاء عملکرد مدل‌ها بدون نیاز به آموزش مدل‌های بزرگ‌تر است.

 

تنظیم استدلال در gemini

 

مدل‌های استدلالی مثل DeepSeek R1 با تمرکز بر حل منطقی مسائل معرفی شده‌اند و در برخی وظایف دشوار مثل تحلیل کد یا جمع‌آوری اطلاعات از منابع متعدد عملکرد بهتری دارند. با این حال، این مدل‌ها همیشه کارآمد نیستند. گاهی اوقات در وظایف ساده، بیش از حد فکر می‌کنند که هم هزینه‌بر است و هم اثرات زیست‌محیطی دارد. مثلاً در مدلی مانند Gemini Flash 2.5 مشاهده شده که برای پرسش‌های ساده نیز بیش از حد زمان صرف می‌کند و حتی ممکن است وارد چرخه‌های تکراری و بی‌پایان شود. قابلیت جدید DeepMind به توسعه‌دهندگان امکان می‌دهد میزان منابع اختصاص‌یافته به تفکر مدل را متناسب با پیچیدگی مسئله تنظیم کنند. فعال بودن کامل حالت استدلال تا ۶ برابر بیشتر از حالت عادی هزینه دارد. هنوز دقیقاً مشخص نیست چه وظایفی به تفکر بیشتر نیاز دارند، ولی مواردی مثل کدنویسی و تولید گزارش‌های پیچیده پژوهشی از جمله کاربردهای واضح این قابلیت هستند.

 

تنظیم استدلال در gemini

 

این تغییر رویکرد نشان‌دهنده‌ی عبور از قوانین قدیمی مقیاس‌پذیری در هوش مصنوعی است؛ دیگر بزرگ‌تر بودن مدل به‌تنهایی ملاک برتری نیست، بلکه زمان و کیفیت تفکر مدل اهمیت بیشتری یافته است. همچنین هزینه‌های مربوط به پردازش پاسخ (استنتاج) نسبت به آموزش مدل‌ها بیشتر شده و این روند با رشد مدل‌های استدلالی شدت خواهد گرفت. اگرچه DeepMind تلاش دارد با مدل‌های اختصاصی خود پیشرو باشد، مدل‌های متن‌باز مثل DeepSeek نیز با عملکرد بالا و هزینه کمتر توجه زیادی جلب کرده‌اند. این مدل‌ها با انتشار وزن‌های داخلی خود به توسعه‌دهندگان امکان اجرای مستقل را می‌دهند، در حالی که مدل‌های گوگل و OpenAI هنوز به‌صورت اختصاصی و پولی عرضه می‌شوند. در نهایت، DeepMind باور دارد که «استدلال» کلید هوش مصنوعی آینده است؛ قابلیتی که زمینه‌ساز ایجاد «عاملیت» در مدل‌ها خواهد بود. به گفته‌ی کارشناسان این شرکت، هر زمان مدلی شروع به تفکر کند، گامی به سوی هوشمندی واقعی برداشته شده است.

منبع خبر: technologyreview

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟