متا، شرکت مادر پلتفرمهایی چون فیسبوک و اینستاگرام، پس از تعدیل نیرو در ابتدای امسال، حالا به طورکلی تیم هوش مصنوعی مسئولانه (RAI) خود را منحل و اعضای آن را به دیگر گروهها منتقل کرد. این تغییر ساختاری در حالی اتفاق میافتد که این شرکت با هدف رقابت با شرکتهایی نظیر گوگل و مایکروسافت، منابع بیشتری را به توسعهی هوش مصنوعی مولد اختصاص میدهد.
طبق گزارش زومیت ، بسیاری از اعضای تیم RAI به تیم محصولات هوش مصنوعی مولد متا میپیوندند و بقیه روی زیرساختهای هوش مصنوعی کار خواهند کرد. بهگفتهی سخنگوی متا، با وجود منحلشدن تیم، این شرکت بر توسعهی مسئولانهی هوش مصنوعی متعهد باقی میماند. باوجوداین، منتقدان میگویند که رفتارهای اخیر شرکت مارک زاکربرگ، خلاف این موضوع را نشان میدهند.
اعضای تیم RAI که سال ۲۰۱۹ ایجاد شد، وظیفه داشتند تا از آموزشِ اخلاقی هوش مصنوعی متا مطمئن شوند و با رسیدگی به مسائلی مانند سوگیریهای مختلف، از ایجاد مشکل در پلتفرمهای این شرکت جلوگیری کنند. بااینحال، پیشتر گزارش شده بود که این اعضای این تیم از حداقل استقلالها برخوردار بودند و انجام هرگونه ابتکار، نیازمند فرایندهای بسیار طولانی بود.
این تغییر رویه از آنجا بحثبرانگیز است که سیستمهای خودکار و مبتنیبر هوش مصنوعی متا، پیش از این بارها باعث ایجاد مشکلاتی جدی شدهاند. سال ۲۰۱۷، ترجمهی اشتباه در فیسبوک به دستگیرشدن اشتباه فردی منجر شد. همچنین، دادن ورودیهای خاص به استیکرساز مبتنیبر هوش مصنوعی واتساپ نیز باعث ایجاد نتایجی نامناسب میشد. در نمونهای دیگر، الگوریتمهای اینستاگرام اشتراکگذاری محتوای سوءاستفاده از کودکان را تسهیل کرده بودند.
این اولینبار نیست که غولهای فناوری توسعهی مسئولانهی هوش مصنوعی را فدای سوداگریهای تجاری خود میکنند؛ زیرا اوایل سال جاری میلادی، مایکروسافت در اقدامی مشابه متا، تیم ناظر بر رعایت اخلاق در توسعهی هوش مصنوعی خود را منحل کرد.
طبق گزارش زومیت ، بسیاری از اعضای تیم RAI به تیم محصولات هوش مصنوعی مولد متا میپیوندند و بقیه روی زیرساختهای هوش مصنوعی کار خواهند کرد. بهگفتهی سخنگوی متا، با وجود منحلشدن تیم، این شرکت بر توسعهی مسئولانهی هوش مصنوعی متعهد باقی میماند. باوجوداین، منتقدان میگویند که رفتارهای اخیر شرکت مارک زاکربرگ، خلاف این موضوع را نشان میدهند.
اعضای تیم RAI که سال ۲۰۱۹ ایجاد شد، وظیفه داشتند تا از آموزشِ اخلاقی هوش مصنوعی متا مطمئن شوند و با رسیدگی به مسائلی مانند سوگیریهای مختلف، از ایجاد مشکل در پلتفرمهای این شرکت جلوگیری کنند. بااینحال، پیشتر گزارش شده بود که این اعضای این تیم از حداقل استقلالها برخوردار بودند و انجام هرگونه ابتکار، نیازمند فرایندهای بسیار طولانی بود.
این تغییر رویه از آنجا بحثبرانگیز است که سیستمهای خودکار و مبتنیبر هوش مصنوعی متا، پیش از این بارها باعث ایجاد مشکلاتی جدی شدهاند. سال ۲۰۱۷، ترجمهی اشتباه در فیسبوک به دستگیرشدن اشتباه فردی منجر شد. همچنین، دادن ورودیهای خاص به استیکرساز مبتنیبر هوش مصنوعی واتساپ نیز باعث ایجاد نتایجی نامناسب میشد. در نمونهای دیگر، الگوریتمهای اینستاگرام اشتراکگذاری محتوای سوءاستفاده از کودکان را تسهیل کرده بودند.
این اولینبار نیست که غولهای فناوری توسعهی مسئولانهی هوش مصنوعی را فدای سوداگریهای تجاری خود میکنند؛ زیرا اوایل سال جاری میلادی، مایکروسافت در اقدامی مشابه متا، تیم ناظر بر رعایت اخلاق در توسعهی هوش مصنوعی خود را منحل کرد.