
شرکت OpenAI اخیراً نسخهی تحقیقاتی مجموعهای از مدلهای متنباز جدید با نام gpt-oss-safeguard را منتشر کرده است. این مدلها که برای طبقهبندی ایمنی و تحلیل محتوای ورودی و خروجی در سیستمهای هوش مصنوعی طراحی شدهاند، در ادامهی اقداماتی قرار میگیرند که OpenAI با هدف بازگشت به شفافیت و همکاری گستردهتر با جامعه توسعهدهندگان انجام میدهد. مدلهای جدید ارائه شده در دو اندازه gpt-oss-safeguard-120b و gpt-oss-safeguard-20b در دسترس هستند و زیر لایسنس Apache 2.0 منتشر شدهاند. این یعنی توسعهدهندگان میتوانند بهطور آزاد از این مدلها استفاده، اصلاح و در پروژههای مختلف تجاری یا پژوهشی بهکار ببرند. مدلها از طریق پلتفرم Hugging Face قابل دانلود هستند.

نکته مهم این است که این مدلها open weight هستند، به این معنی که وزنهای آموزشدیده مدل در اختیار کاربران قرار میگیرد، اما کل دادههای آموزشی و فرآیند آموزش بهصورت کامل متنباز نشده است. با این حال نسبت به مدلهای کاملاً بسته مانند GPT-4 و GPT-5، این اقدام یک گام مهم به سمت شفافیت بیشتر محسوب میشود. تفاوت اصلی مدلهای open weight و open source نیز در همین نکته است؛ در مدلهای open source علاوه بر وزنها، کدهای آموزش، دیتاستها و اطلاعات کامل زیرساختی نیز ارائه میشود.
این مدلها نسخههای بهینهسازیشده مدلهای gpt-oss هستند که اوایل سال جاری توسط OpenAI معرفی شده بودند. هدف اصلی این مدلها ایجاد سیستمهای بررسی سیاستها و قوانین محتوایی است. این مدلها میتوانند بر اساس قوانین تعیینشده توسط سازمانها، محتوای تولید شده یا ورودی را بررسی کرده و تشخیص دهند که آیا محتوا با سیاستها در تضاد است یا خیر. همچنین این مدلها از روش Chain-of-Thought (زنجیره تفکر) استفاده میکنند؛ یعنی برای تصمیمگیری، تحلیل چندمرحلهای و قابل توضیح ارائه میدهند. این ویژگی باعث میشود خروجی مدلها شفاف، قابل توضیح و مناسب برای ارزیابیهای حقوقی و سازمانی باشد.

انتشار این مدلها تنها یک روز پس از تغییر ساختاری مهم در OpenAI انجام شد. این شرکت به تازگی تبدیل به یک شرکت عامالمنفعه با سود محدود شده و توافق جدیدی با مایکروسافت منعقد کرده که طبق آن، اجازه انتشار مدلهای متنباز و open weight را دارد. این موضوع نشاندهنده تغییری اساسی در مسیر OpenAI است، زیرا این شرکت در سالهای گذشته بهطور کلی به سمت مدلهای تجاری بسته حرکت میکرد و به همین دلیل مورد انتقاد بخشی از جامعه فناوری قرار گرفته بود.
کارشناسان مانند بردلی شیمین از Futurum Group معتقدند این اقدام نشانهای از «بازگشت OpenAI به ریشههای خود» و تقویت همکاری با جامعه متنباز است. او اشاره میکند که در شرایطی که شرکتهایی مانند Meta تمرکز را از انتشار مدلهای باز به تحقیق داخلی منتقل کردهاند، حرکت OpenAI میتواند برای کل اکوسیستم هوش مصنوعی مفید باشد. به گفتهی شیمین، هدف اصلی OpenAI این است که ابزارهایی منعطف و کمهزینه برای سازمانها فراهم کند تا بتوانند محتوای تولیدی هوش مصنوعی را بر اساس سیاستهای اختصاصی خود مدیریت کنند؛ بدون نیاز به صرف هزینههای سنگین برای بازطراحی یا آموزش مدلهای جدید.
منبع خبر: aibusiness

شاهین آقامعلی


پاسخ :