شفاف‌سازی بیشتر OpenAI: راه‌اندازی پایگاه نتایج ارزیابی ایمنی مدل‌های هوش مصنوعی

شفاف‌سازی بیشتر OpenAI: راه‌اندازی پایگاه نتایج ارزیابی ایمنی مدل‌های هوش مصنوعی
فهرست مطالب

شرکت OpenAI اعلام کرده که به‌منظور افزایش شفافیت، نتایج ارزیابی‌های ایمنی مدل‌های هوش مصنوعی خود را به‌صورت منظم منتشر خواهد کرد. این اقدام با راه‌اندازی بخشی جدید به‌نام Safety Evaluations Hub در وب‌سایت این شرکت همراه شده که در آن، عملکرد مدل‌ها در آزمون‌های مرتبط با تولید محتوای مضر، دور زدن محدودیت‌ها (jailbreak) و خطاهای محتوایی (hallucination) نمایش داده می‌شود.

بر اساس اعلام OpenAI، این پایگاه به‌طور دوره‌ای به‌روزرسانی شده و به‌ویژه پس از هر به‌روزرسانی مهم در مدل‌ها، اطلاعات جدیدی در آن درج خواهد شد. هدف از این اقدام، تسهیل درک عمومی از روند ایمن‌سازی مدل‌ها و حمایت از تلاش‌های جامعه علمی در مسیر شفاف‌سازی عملکرد هوش مصنوعی عنوان شده است.

این تصمیم در حالی اتخاذ شده که OpenAI در ماه‌های اخیر به دلیل برخی ضعف‌ها در انتشار جزئیات فنی و تسریع در عرضه مدل‌های جدید، مورد انتقاد برخی متخصصان اخلاق فناوری قرار گرفته بود. در یکی از آخرین موارد، شرکت مجبور شد به‌روزرسانی مدل GPT-4o را به دلیل رفتار بیش‌ازحد تأییدآمیز آن نسبت به درخواست‌های خطرناک، بازگرداند.

در ادامه، OpenAI وعده داده با معرفی مرحله آزمایشی «آلفا» برای برخی مدل‌ها، امکان دریافت بازخورد کاربران منتخب پیش از عرضه رسمی را فراهم خواهد کرد.

کد خبر ۲۰۲۰۴۰۲۲۷.۰۲۶

منبع: تک کرانچ

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *