برای سالها، فعالان و دانشگاهیان این نگرانی را مطرح کردهاند که نرمافزار تحلیل چهره که ادعا میکند میتواند سن، جنسیت و وضعیت عاطفی افراد را شناسایی کند، ممکن است مغرضانه، غیرقابل اعتماد یا تهاجمی باشد – و نباید فروخته شود.
مایکروسافت با اذعان به برخی از این انتقادات، روز سهشنبه اعلام کرد که قصد دارد این ویژگیها را از سرویس هوش مصنوعی خود برای شناسایی، تجزیه و تحلیل و شناسایی چهرهها حذف کند. این هفته دیگر در دسترس کاربران جدید قرار نخواهد گرفت و در طول سال برای کاربران فعلی حذف خواهند شد.
این تغییرات بخشی از تلاش مایکروسافت برای کنترل دقیق تر محصولات هوش مصنوعی است. پس از بررسی دو ساله، تیمی در مایکروسافت یک “استاندارد هوش مصنوعی مسئول” را توسعه داده اند، یک سند ۲۷ صفحه ای که الزامات A.I را مشخص می کند. سیستم هایی برای اطمینان از اینکه آنها تأثیر مضری بر جامعه ندارند.
الزامات شامل حصول اطمینان از این است که سیستم ها “راه حل های معتبری برای مشکلاتی که برای حل آنها طراحی شده اند” و “کیفیت خدمات مشابه برای گروه های جمعیتی شناسایی شده، از جمله گروه های به حاشیه رانده شده” ارائه می کنند.
قبل از انتشار، فناوریهایی که برای تصمیمگیریهای مهم در مورد دسترسی افراد به شغل، تحصیل، مراقبتهای بهداشتی، خدمات مالی یا فرصتهای زندگی مورد استفاده قرار میگیرند، توسط تیمی به رهبری ناتاشا کرامپتون، مدیر مسئول A.I مایکروسافت مورد بررسی قرار میگیرند.
نگرانیهای زیادی در مایکروسافت در مورد ابزار تشخیص احساسات وجود داشت که بیان یک فرد را به عنوان خشم، تحقیر، انزجار، ترس، شادی، خنثی، غمگینی یا تعجب عنوان میکرد.
این تصمیم مایکروسافت در حالی صورت میگیرد که این شرکت برای اولین بار چارچوب استاندارد هوش مصنوعی مسئولیت پذیر خود را با عموم به اشتراک گذاشته است. این دستورالعملها فرآیند تصمیمگیری این شرکت، از جمله تمرکز بر اصولی مانند حریم خصوصی و شفافیت را نشان میدهد. این همچنین نشان دهنده اولین به روز رسانی بزرگ استاندارد از زمان معرفی آن در اواخر سال ۲۰۱۹ است.
مایکروسافت اولین شرکتی نیست که در مورد توقف تشخیص چهره فکر میکند. شرکت آیبیام نیز به دلیل نگرانی از اینکه پروژههایش برای نقض حقوق بشر استفاده شود، کار در این زمینه را متوقف کرد.