آمازون از تراشه‌های جدید خود برای آموزش مدل‌های هوش مصنوعی رونمایی کرد

...

جهان با کمبود کارت گرافیک یا GPU مواجه است، زیرا تقاضا برای هوش مصنوعی مولد که اغلب بر روی پردازنده‌های گرافیکی آموزش دیده و اجرا می‌شود، روز به‌روز در حال افزایش است. طبق گزارش‌ها، تراشه‌های انویدیا می‌توانند تا سال 2024 نیازهای بازار را به این تراشه برطرف کند؛ ولی مدیر عامل شرکت سازنده تراشه TSMC اخیراً خوش‌بین نبوده و ادعا کرده است که کمبود تأمین پردازنده‌های گرافیکی از Nvidia و همچنین رقبای Nvidia ممکن است تا سال 2025 ادامه یابد. شرکت‌های بزرگ برای کاهش وابستگی خود به تولید کنندگان پردازنده‌های گرافیکی، خودشان اقدام به ساخت تراشه می‌کنند. تراشه‌های سفارشی که برای ایجاد، تکرار و تولید مدل‌های هوش مصنوعی طراحی شده‌اند. یکی از این شرکت‌ها آمازون است که امروز در کنفرانس سالانه، آخرین نسل از تراشه‌های خود را برای آموزش مدل‌های هوش مصنوعی و استنتاج رونمایی کرد. آمازون می‌گوید تراشه جدید با نام AWS Trainium2، به‌گونه‌ای طراحی شده است که تا 4 برابر عملکرد بهتر و 2 برابر بازده انرژی بهتر نسبت به نسل اول Trainium که در دسامبر 2020 رونمایی شد، ارائه می‌دهد. Tranium2 که قرار است در نمونه‌های EC Trn2 در دسته‌های 16 تراشه‌ای در ابر AWS در دسترس باشد، می‌تواند تا 100000 تراشه را در محصول EC2 UltraCluster AWS مقیاس بندی کند. آمازون می‌گوید که صد هزار تراشه ترانیوم، 65 اگزافلاپس محاسباتی را ارائه می‌دهند که به ازای هر تراشه می‌شود 650 ترافلاپس محاسباتی.

تراشه جدید آمازون

اگزافلاپس و ترافلاپس تعداد عملیات محاسباتی را در هر ثانیه اندازه می‌گیرند که یک تراشه می‌تواند انجام دهد اما باید در نظر داشت که احتمالاً عوامل پیچیده‌ای وجود دارد که باعث می‌شود محاسبات در این زمینه دقیق نباشد. با فرض اینکه یک تراشه Tranium2 واقعاً بتواند عملکردی معادل 200 ترافلاپس داشته باشد، آن را بسیار بالاتر از تراشه‌های سفارشی گوگل در حدود سال 2017 قرار می‌دهد. آمازون می‌گوید که خوشه‌ای از 100000 تراشه Trainium می‌تواند یک مدل زبان بزرگ هوش مصنوعی با پارامتر 300 میلیاردی را به جای ماه‌ها فقط در عرض چند هفته آموزش دهد. پارامترها بخش‌هایی از مدل هستند که از داده‌های آموزشی به دست می‌آیند و اساساً مهارت مدل را بر روی یک مشکل، مانند تولید متن یا کد، تعریف می‌کنند. این اندازه حدود 1.75 برابر اندازه GPT-3، ساخت OpenAI است. دیوید براون، معاون محاسبات و شبکه AWS در بیانیه‌ای مطبوعاتی گفت: با افزایش علاقه به هوش مصنوعی مولد، Tranium2 به مشتریان کمک می‌کند مدل‌های یادگیری ماشین خود را سریع‌تر، با هزینه کمتر و با بهره‌وری انرژی بهتر آموزش دهند.

نظرات 1

wave
  • commenter

    Hanane Allahverdi

    2 سال پیش

    آییییی ساغووووول

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟