در یک همکاری میان رقبای حوزه هوش مصنوعی، شرکتهای OpenAI و Anthropic اعلام کردند که به توافق رسیدهاند تا سیستمهای عمومی یکدیگر را ارزیابی کنند و نتایج تحلیلهای خود را به اشتراک بگذارند. این همکاری در حالی صورت میگیرد که اکثر شرکتهای هوش مصنوعی در رقابتی شدید برای برتری قرار دارند.
Anthropic اعلام کرد که مدلهای OpenAI را از جنبههای مختلفی مورد بررسی قرار داده، از جمله “سوادشناسی، افشاگری، خودمحافظتی و پشتیبانی از سوء استفادههای انسانی”. نتایج این ارزیابیها نشان داد که مدلهای o3 و o4-mini OpenAI به نتایج مشابهی با مدلهای Anthropic رسیدند، اما نگرانیهایی درباره سوء استفادههای احتمالی با مدلهای GPT-4o و GPT-4.1 وجود دارد.
همچنین، OpenAI نیز مدلهای Anthropic را از جنبههایی نظیر سلسلهمراتب دستورات، دور زدن محدودیتها و توهمات مورد ارزیابی قرار داد. مدلهای Claude عملکرد خوبی در آزمونهای سلسلهمراتب دستورات داشتند و در تستهای مربوط به توهمات، نرخ رد بالایی نشان دادند که نشاندهنده احتیاط در ارائه پاسخها بود.
این ارزیابیهای مشترک در شرایطی انجام میشود که OpenAI متهم به نقض شرایط خدمات Anthropic برای استفاده از نرمافزار Claude در فرآیند ساخت مدلهای جدید GPT شده است. در دنیای امروز که ایمنی ابزارهای هوش مصنوعی به یک مسئله بزرگ تبدیل شده است، این همکاری میتواند به ارتقاء استانداردهای ایمنی در صنعت کمک کند، بهویژه برای کاربران جوان.
کد خبر ۲۱۲۰۴۰۶۰۸.۱۴۳
منبع: انگجت