گوگل از مدل‌های جدید هوش مصنوعی خود با قابلیت شناسایی احساسات رونمایی کرد

گوگل از مدل‌های جدید هوش مصنوعی خود با قابلیت شناسایی احساسات رونمایی کرد
فهرست مطالب

گوگل از خانواده مدل‌های هوش مصنوعی جدید خود به نام PaliGemma 2 رونمایی کرد که قابلیت جالبی دارد: شناسایی احساسات. این مدل‌ها می‌توانند تصاویر را تجزیه و تحلیل کرده و قادر به تولید توضیحات و پاسخ به سوالات درباره افرادی که در عکس‌ها “مشاهده” می‌کنند، هستند.

گوگل در بیانیه‌ای اعلام کرد: “PaliGemma 2 توضیحات دقیق و مرتبط با زمینه برای تصاویر تولید می‌کند، که فراتر از شناسایی ساده اشیاء به توصیف اعمال، احساسات و داستان کلی صحنه می‌پردازد.”

با این حال، شناسایی احساسات به طور پیش‌فرض فعال نیست و برای استفاده از آن نیاز به تنظیمات خاصی دارد. این موضوع نگرانی کارشناسان را به دنبال داشته است. ساندرا واچر، استاد اخلاق داده و هوش مصنوعی در دانشگاه آکسفورد، در گفتگو با TechCrunch اظهار داشت: “این برای من بسیار نگران‌کننده است. فرض کردن این که می‌توانیم احساسات افراد را «خوانده» یا شناسایی کنیم، مشکل‌ساز است.”

بسیاری از مدل‌های شناسایی احساسات بر اساس نظریات پاول اکرمن، روانشناس معروف، توسعه یافته‌اند. اما تحقیقات بعدی نشان داده‌اند که افراد از زمینه‌های فرهنگی مختلف احساسات خود را به روش‌های متفاوتی ابراز می‌کنند و این باعث می‌شود که شناسایی احساسات به شکلی دقیق و قطعی غیرممکن باشد.

این مدل‌ها به دلیل احتمال تعصب در شناسایی احساسات نگران‌کننده هستند. در یک مطالعه MIT در سال ۲۰۲۰، محققان دریافتند که مدل‌های تحلیل صورت می‌توانند تمایلات غیرمنتظره‌ای به سمت برخی از حالات صورت مانند لبخند داشته باشند. همچنین تحقیقات جدیدتر نشان می‌دهند که مدل‌های تحلیل احساسات ممکن است احساسات منفی بیشتری به صورت افراد سیاه‌پوست نسبت به صورت افراد سفیدپوست نسبت دهند.

گوگل اعلام کرده که آزمایش‌های گسترده‌ای برای ارزیابی تعصبات جمعیتی در PaliGemma 2 انجام داده است و این مدل سطح پایین‌تری از “سمی بودن و الفاظ رکیک” نسبت به معیارهای صنعتی نشان داده است. با این حال، این شرکت جزئیات کاملی از معیارهایی که استفاده کرده، ارائه نکرده است.

برخی از کارشناسان معتقدند که شناسایی احساسات فراتر از استفاده از ابزارهای بصری است و به شدت در زمینه‌های فرهنگی و شخصی قرار دارد. هایدی خلاق، رئیس علوم هوش مصنوعی در AI Now Institute، می‌گوید: “تحقیقات نشان داده‌اند که ما نمی‌توانیم فقط از ویژگی‌های صورت احساسات را استنباط کنیم.”

با توجه به نگرانی‌های موجود درباره سوءاستفاده یا استفاده نادرست از این مدل‌ها، بسیاری از کشورهای خارجی اقدام به محدود کردن استفاده از سیستم‌های شناسایی احساسات در زمینه‌های پرخطر مانند مدارس و محل‌های کار کرده‌اند. از سوی دیگر، مدل‌های باز مانند PaliGemma 2 که به‌طور عمومی در دسترس هستند، ممکن است در دنیای واقعی به مشکلات جدی منجر شوند.

یک سخنگوی گوگل در واکنش به نگرانی‌ها اعلام کرد که این شرکت از آزمایش‌های خود در زمینه “آسیب‌های نمایشی” حمایت می‌کند و آن‌ها ارزیابی‌های گسترده‌ای در مورد اخلاق و ایمنی مدل‌ها انجام داده‌اند. با این حال، بسیاری از کارشناسان همچنان نگران خطرات استفاده نادرست از این تکنولوژی هستند.

کد خبر ۲۱۲۰۳۰۹۱۷.۰۲۶

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *