گوگل از خانواده مدلهای هوش مصنوعی جدید خود به نام PaliGemma 2 رونمایی کرد که قابلیت جالبی دارد: شناسایی احساسات. این مدلها میتوانند تصاویر را تجزیه و تحلیل کرده و قادر به تولید توضیحات و پاسخ به سوالات درباره افرادی که در عکسها “مشاهده” میکنند، هستند.
گوگل در بیانیهای اعلام کرد: “PaliGemma 2 توضیحات دقیق و مرتبط با زمینه برای تصاویر تولید میکند، که فراتر از شناسایی ساده اشیاء به توصیف اعمال، احساسات و داستان کلی صحنه میپردازد.”
با این حال، شناسایی احساسات به طور پیشفرض فعال نیست و برای استفاده از آن نیاز به تنظیمات خاصی دارد. این موضوع نگرانی کارشناسان را به دنبال داشته است. ساندرا واچر، استاد اخلاق داده و هوش مصنوعی در دانشگاه آکسفورد، در گفتگو با TechCrunch اظهار داشت: “این برای من بسیار نگرانکننده است. فرض کردن این که میتوانیم احساسات افراد را «خوانده» یا شناسایی کنیم، مشکلساز است.”
بسیاری از مدلهای شناسایی احساسات بر اساس نظریات پاول اکرمن، روانشناس معروف، توسعه یافتهاند. اما تحقیقات بعدی نشان دادهاند که افراد از زمینههای فرهنگی مختلف احساسات خود را به روشهای متفاوتی ابراز میکنند و این باعث میشود که شناسایی احساسات به شکلی دقیق و قطعی غیرممکن باشد.
این مدلها به دلیل احتمال تعصب در شناسایی احساسات نگرانکننده هستند. در یک مطالعه MIT در سال ۲۰۲۰، محققان دریافتند که مدلهای تحلیل صورت میتوانند تمایلات غیرمنتظرهای به سمت برخی از حالات صورت مانند لبخند داشته باشند. همچنین تحقیقات جدیدتر نشان میدهند که مدلهای تحلیل احساسات ممکن است احساسات منفی بیشتری به صورت افراد سیاهپوست نسبت به صورت افراد سفیدپوست نسبت دهند.
گوگل اعلام کرده که آزمایشهای گستردهای برای ارزیابی تعصبات جمعیتی در PaliGemma 2 انجام داده است و این مدل سطح پایینتری از “سمی بودن و الفاظ رکیک” نسبت به معیارهای صنعتی نشان داده است. با این حال، این شرکت جزئیات کاملی از معیارهایی که استفاده کرده، ارائه نکرده است.
برخی از کارشناسان معتقدند که شناسایی احساسات فراتر از استفاده از ابزارهای بصری است و به شدت در زمینههای فرهنگی و شخصی قرار دارد. هایدی خلاق، رئیس علوم هوش مصنوعی در AI Now Institute، میگوید: “تحقیقات نشان دادهاند که ما نمیتوانیم فقط از ویژگیهای صورت احساسات را استنباط کنیم.”
با توجه به نگرانیهای موجود درباره سوءاستفاده یا استفاده نادرست از این مدلها، بسیاری از کشورهای خارجی اقدام به محدود کردن استفاده از سیستمهای شناسایی احساسات در زمینههای پرخطر مانند مدارس و محلهای کار کردهاند. از سوی دیگر، مدلهای باز مانند PaliGemma 2 که بهطور عمومی در دسترس هستند، ممکن است در دنیای واقعی به مشکلات جدی منجر شوند.
یک سخنگوی گوگل در واکنش به نگرانیها اعلام کرد که این شرکت از آزمایشهای خود در زمینه “آسیبهای نمایشی” حمایت میکند و آنها ارزیابیهای گستردهای در مورد اخلاق و ایمنی مدلها انجام دادهاند. با این حال، بسیاری از کارشناسان همچنان نگران خطرات استفاده نادرست از این تکنولوژی هستند.
کد خبر ۲۱۲۰۳۰۹۱۷.۰۲۶