مدل جدید هوش مصنوعی گوگل در ارزیابی‌های ایمنی ضعیف عمل کرد

مدل جدید هوش مصنوعی گوگل در ارزیابی‌های ایمنی ضعیف عمل کرد
فهرست مطالب

گوگل بار دیگر به‌دلیل عملکرد مدل‌های هوش مصنوعی‌اش و نحوه ارائه گزارش‌های ایمنی، زیر ذره‌بین کارشناسان و رسانه‌ها قرار گرفته است.

مدل جدید هوش مصنوعی گوگل با نام Flash در اجرای دقیق دستورهای کاربران عملکرد بهتری از خود نشان می‌دهد، اما این توانایی بیشتر، ظاهراً به بهای افزایش نقض سیاست‌های محتوایی تمام شده است.

«وودساید» از مدیران گوگل می‌گوید: «میان اطاعت از دستورات کاربران و پیروی از سیاست‌های شرکت، نوعی تضاد وجود دارد. در مورد مدل Flash، میزان پیروی از دستورها بیشتر شده، اما در مقابل، احتمال نقض سیاست‌ها نیز افزایش یافته است.» وی افزود که گوگل جزئیات دقیقی درباره موارد نقض سیاست‌ها منتشر نکرده و صرفاً گفته این موارد «شدید» نبوده‌اند. نبود شفافیت در این زمینه باعث شده کارشناسان مستقل نتوانند به‌درستی عملکرد این مدل را ارزیابی کنند.

این نخستین‌بار نیست که گوگل به‌خاطر شفاف نبودن در گزارش‌های فنی مورد انتقاد قرار می‌گیرد. این شرکت پیش‌تر نیز پس از معرفی مدل قدرتمند Gemini 2.5 Pro، انتشار گزارش فنی را برای چند هفته به تأخیر انداخت. حتی پس از انتشار، نسخه اولیه این گزارش فاقد اطلاعات کلیدی درباره تست‌های ایمنی بود. در نهایت، گوگل در روز دوشنبه گذشته نسخه کامل‌تری از گزارش را با اطلاعات بیشتر درباره ایمنی مدل منتشر کرد.

کارشناسان حوزه هوش مصنوعی هشدار داده‌اند که با افزایش توانایی مدل‌ها در اجرای دستورهای پیچیده، توجه به جنبه‌های اخلاقی، ایمنی و شفافیت بیش از پیش ضروری است. در غیر این صورت، مدل‌هایی که توانایی زیادی در تولید محتوا دارند، ممکن است به ابزارهای خطرناکی برای تولید اطلاعات گمراه‌کننده یا محتوای آسیب‌زا تبدیل شوند.

کد خبر ۲۱۳۰۲۰۴۱۴.۰۲۶

منبع: تک کرانچ

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *