شرکت OpenAI اعلام کرده که بهمنظور افزایش شفافیت، نتایج ارزیابیهای ایمنی مدلهای هوش مصنوعی خود را بهصورت منظم منتشر خواهد کرد. این اقدام با راهاندازی بخشی جدید بهنام Safety Evaluations Hub در وبسایت این شرکت همراه شده که در آن، عملکرد مدلها در آزمونهای مرتبط با تولید محتوای مضر، دور زدن محدودیتها (jailbreak) و خطاهای محتوایی (hallucination) نمایش داده میشود.
بر اساس اعلام OpenAI، این پایگاه بهطور دورهای بهروزرسانی شده و بهویژه پس از هر بهروزرسانی مهم در مدلها، اطلاعات جدیدی در آن درج خواهد شد. هدف از این اقدام، تسهیل درک عمومی از روند ایمنسازی مدلها و حمایت از تلاشهای جامعه علمی در مسیر شفافسازی عملکرد هوش مصنوعی عنوان شده است.
این تصمیم در حالی اتخاذ شده که OpenAI در ماههای اخیر به دلیل برخی ضعفها در انتشار جزئیات فنی و تسریع در عرضه مدلهای جدید، مورد انتقاد برخی متخصصان اخلاق فناوری قرار گرفته بود. در یکی از آخرین موارد، شرکت مجبور شد بهروزرسانی مدل GPT-4o را به دلیل رفتار بیشازحد تأییدآمیز آن نسبت به درخواستهای خطرناک، بازگرداند.
در ادامه، OpenAI وعده داده با معرفی مرحله آزمایشی «آلفا» برای برخی مدلها، امکان دریافت بازخورد کاربران منتخب پیش از عرضه رسمی را فراهم خواهد کرد.
کد خبر ۲۰۲۰۴۰۲۲۷.۰۲۶
منبع: تک کرانچ