HydroX AI، استارتاپی که ابزارهایی برای ایمن سازی مدلها و خدمات هوش مصنوعی توسعه میدهد، با متا و IBM همکاری میکند تا مدلهای هوش مصنوعی مولد مستقر در صنایع پرخطر را ارزیابی کند. این شرکت مستقر در سن خوزه کالیفرنیا که در سال 2023 تأسیس شد، یک پلتفرم ارزیابی ایجاد کرد که به کسبوکارها اجازه میداد تا مدلهای زبانی خود را برای تعیین ایمنی و امنیت آزمایش کنند.HydroX با متا و IBM برای ارزیابی مدلهای زبانی در بخشهای مختلف از جمله مراقبتهای بهداشتی، خدمات مالی و حقوقی، همکاری خواهد کرد. این سه شرکت برای انجام تستهای لازم و مجموعه ابزارهای کار مورد نظر همکاری خواهند کرد تا به توسعهدهندگان کسبوکارهایی که از هوش مصنوعی استفاده میکنند، کمک کنند تا مطمئن شوند که مدلهای زبانی آنها قبل از استقرار و استفاده در یک حوزه خاص، ایمن و سازگار هستند.
ارزیابی مدلهای زبانی بزرگ تضمین میکند که این مدلهای هوش مصنوعی برای کاربردهای خاص ایمن، مؤثر و اخلاقی هستند و در نهایت اعتماد به هوش مصنوعی و مدلهای زبانی را تقویت کرده و پذیرش گستردهتر آنها را در صنایع مختلف که بروز هرگونه خطا از طرف سیستمهای مبتنی بر مدلهای هوش مصنوعی، میتواند عواقب غیر قابل جبرانی داشته باشد را تسهیل میکند. HydroX ادعا میکند که آزمایشها و ابزارهای کافی وجود ندارد تا به صاحبان مدل اجازه دهد سیستمهای مبتنی بر هوش مصنوعی خود را برای استفاده در صنایع پرخطر ایمن کنند. این استارت آپ اکنون با دو شرکت بزرگ فناوری که تجربه کار در زمینه ایمنی هوش مصنوعی را دارند، همکاری میکند. متا قبلاً Purple Llama را ساخته بود، مجموعهای از ابزارها که برای اطمینان از ایمنی مدلهای Llama طراحی شدهاند. در همین حال، IBM یکی از شرکتهای فناوری بود که متعهد شد اقدامات ایمنی را که در توسعه مدلهای پایه در اجلاس اخیر ایمنی هوش مصنوعی در کره انجام دادهاند، منتشر کند.
رئیس HydroX AI که Bian نام دارد گفت: از طریق کار و گفتگو با سایر بخشهای صنعت، ما متوجه شدیم که رسیدگی به نگرانیهای ایمنی و امنیت هوش مصنوعی یک چالش پیچیده است، در حالی که همکاری کلیدی در کشف قدرت واقعی این فناوری تحولآفرین است. این یک لحظه غرورآفرین برای همه ما در HydroX AI است و ما برای آنچه که در راه است بسیار پرانرژی هستیم.
پاسخ :