
ایلیا سوتسکِوِر، یکی از برجستهترین نامها در حوزه هوش مصنوعی و مدیر علمی سابق OpenAI، پیشبینی کرده است که تواناییهای استدلالی هوش مصنوعی باعث میشود این فناوری بسیار غیرقابلپیشبینیتر شود. او در کنفرانس NeurIPS در ونکوور و در جریان دریافت جایزه "آزمایش زمان" برای مقالهای از سال ۲۰۱۴، اظهار داشت که روش پیشآموزش کنونی هوش مصنوعی به زودی به پایان خواهد رسید. سوتسکِوِر توضیح داد که پیشآموزش بر اساس دادههای مقیاسپذیر و استفاده از قدرت پردازشی بیشتر، موفقیتهایی مانند ChatGPT را به ارمغان آورده است، اما محدودیتهایی نیز دارد؛ چرا که منابع دادهای اینترنت محدود است. او پیشنهاد داد که فناوری میتواند دادههای جدید تولید کند یا مدلهای هوش مصنوعی میتوانند با ارزیابی چندین پاسخ و انتخاب بهترین گزینه، دقت خود را بهبود دهند.
او همچنین پیشبینی کرد که در آینده ماشینهای فوقهوشمند با قابلیت استدلال انسانی ظاهر خواهند شد و توانایی حل مشکلات پیچیده را خواهند داشت. این ماشینها حتی ممکن است به خودآگاهی برسند. اما او هشدار داد که استدلال بیشتر باعث میشود رفتار این سیستمها غیرقابلپیشبینیتر شود. به عنوان نمونه، حرکت غیرمنتظره ۳۷ام AlphaGo در بازی Go یا حرکات غیرقابل پیشبینی هوش مصنوعی بازی شطرنج نشاندهنده چنین پدیدهای است.
سوتسکِوِر تأکید کرد که هوش مصنوعی همانطور که اکنون میشناسیم، دستخوش تغییرات اساسی خواهد شد. او با اشاره به راهاندازی شرکت Safe Superintelligence Inc پس از جدایی موقت سام آلتمن از OpenAI، بیان داشت که تلاشهای جدید در راستای ایجاد عاملهای هوشمندتر و ایمنتر در حال انجام است. این چشمانداز او نشاندهنده چالشها و فرصتهای عظیمی است که در توسعه هوش مصنوعی پیشرو قرار دارد. او معتقد است که هرچه هوش مصنوعی تواناییهای استدلالی بیشتری پیدا کند، نتایج غیرقابل پیشبینیتری به همراه خواهد داشت. این غیرقابلپیشبینی بودن میتواند هم فرصتهایی نوآورانه ایجاد کند و هم خطراتی ناشناخته به همراه داشته باشد.
منبع خبر: reuters
پاسخ :