همکاری غیرمنتظره: ارزیابی ایمنی سیستم‌های هوش مصنوعی OpenAI و Anthropic

همکاری غیرمنتظره: ارزیابی ایمنی سیستم‌های هوش مصنوعی OpenAI و Anthropic
فهرست مطالب

در یک همکاری میان رقبای حوزه هوش مصنوعی، شرکت‌های OpenAI و Anthropic اعلام کردند که به توافق رسیده‌اند تا سیستم‌های عمومی یکدیگر را ارزیابی کنند و نتایج تحلیل‌های خود را به اشتراک بگذارند. این همکاری در حالی صورت می‌گیرد که اکثر شرکت‌های هوش مصنوعی در رقابتی شدید برای برتری قرار دارند.

Anthropic اعلام کرد که مدل‌های OpenAI را از جنبه‌های مختلفی مورد بررسی قرار داده، از جمله “سوادشناسی، افشاگری، خودمحافظتی و پشتیبانی از سوء استفاده‌های انسانی”. نتایج این ارزیابی‌ها نشان داد که مدل‌های o3 و o4-mini OpenAI به نتایج مشابهی با مدل‌های Anthropic رسیدند، اما نگرانی‌هایی درباره سوء استفاده‌های احتمالی با مدل‌های GPT-4o و GPT-4.1 وجود دارد.

همچنین، OpenAI نیز مدل‌های Anthropic را از جنبه‌هایی نظیر سلسله‌مراتب دستورات، دور زدن محدودیت‌ها و توهمات مورد ارزیابی قرار داد. مدل‌های Claude عملکرد خوبی در آزمون‌های سلسله‌مراتب دستورات داشتند و در تست‌های مربوط به توهمات، نرخ رد بالایی نشان دادند که نشان‌دهنده احتیاط در ارائه پاسخ‌ها بود.

این ارزیابی‌های مشترک در شرایطی انجام می‌شود که OpenAI متهم به نقض شرایط خدمات Anthropic برای استفاده از نرم‌افزار Claude در فرآیند ساخت مدل‌های جدید GPT شده است. در دنیای امروز که ایمنی ابزارهای هوش مصنوعی به یک مسئله بزرگ تبدیل شده است، این همکاری می‌تواند به ارتقاء استانداردهای ایمنی در صنعت کمک کند، به‌ویژه برای کاربران جوان.

کد خبر ۲۱۲۰۴۰۶۰۸.۱۴۳

منبع: انگجت

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *