یافته های محققان کانادایی نشان داده است، که مدل های یادگیری عمیق نمی توانند ماهیت پیکربندی ادراک بصری انسان را به تصویر بکشد.
به گزارش سیناپرس، محققان دانشگاه یورک گزارش داده اند، شبکه های عصبی کانولوشن عمیق (DCNN) اشیاء را مشابه انسان ها نمی بینند و این موضوع می تواند کاربردهای هوش مصنوعی در دنیای واقعی را محدود کند.
تیم تحقیقاتی در این مطالعه، از محرک های بصری جدیدی به نام «فرانکنشتاین» استفاده کرد تا چگونگی پردازش ویژگی های جسمی پیکربندی شده و کل نگر توسط مغز انسان و DCNN ها را بررسی کند.
محققان توضیح داده اند، فرانکنشتاین ها اشیایی هستند که از هم جدا شده و به اشتباه کنار هم قرار گرفته اند. بنابراین، دارای تمام ویژگی های محلی مناسب هستند؛ اما در مکان های اشتباه.
محققان دریافتند: سیستم بینایی انسان به اشتباه فرانکنشتاین ها پی می برد، در حالی که DCNN ها اینطور نیستند. این امر، نشان دهنده عدم حساسیت DCNN ها به ویژگی ها و جزئیات پیکربندی جسم است.
پژوهشگران اضافه کرده اند: نتایج ما توضیح می دهد که چرا مدل های هوش مصنوعی عمیق، تحت شرایط خاص شکست می خورند. مدل های عمیق، معمولاً هنگام حل وظایف تشخیص پیچیده، از میانبرهایی استفاده میکنند که ممکن است در بسیاری از موارد جواب دهند، اما می توانند در برخی از برنامه های کاربردی هوش مصنوعی در دنیای واقعی، خطرناک باشند. از جمله این موارد می توان به سیستم های ایمنی هوشمند ویدئویی برای نظارت بر ترافیک، اشاره کرد.
یافته های تحقیقاتی در مجله iScience منتشر شده اند.
به گزارش سیناپرس، محققان دانشگاه یورک گزارش داده اند، شبکه های عصبی کانولوشن عمیق (DCNN) اشیاء را مشابه انسان ها نمی بینند و این موضوع می تواند کاربردهای هوش مصنوعی در دنیای واقعی را محدود کند.
تیم تحقیقاتی در این مطالعه، از محرک های بصری جدیدی به نام «فرانکنشتاین» استفاده کرد تا چگونگی پردازش ویژگی های جسمی پیکربندی شده و کل نگر توسط مغز انسان و DCNN ها را بررسی کند.
محققان توضیح داده اند، فرانکنشتاین ها اشیایی هستند که از هم جدا شده و به اشتباه کنار هم قرار گرفته اند. بنابراین، دارای تمام ویژگی های محلی مناسب هستند؛ اما در مکان های اشتباه.
محققان دریافتند: سیستم بینایی انسان به اشتباه فرانکنشتاین ها پی می برد، در حالی که DCNN ها اینطور نیستند. این امر، نشان دهنده عدم حساسیت DCNN ها به ویژگی ها و جزئیات پیکربندی جسم است.
پژوهشگران اضافه کرده اند: نتایج ما توضیح می دهد که چرا مدل های هوش مصنوعی عمیق، تحت شرایط خاص شکست می خورند. مدل های عمیق، معمولاً هنگام حل وظایف تشخیص پیچیده، از میانبرهایی استفاده میکنند که ممکن است در بسیاری از موارد جواب دهند، اما می توانند در برخی از برنامه های کاربردی هوش مصنوعی در دنیای واقعی، خطرناک باشند. از جمله این موارد می توان به سیستم های ایمنی هوشمند ویدئویی برای نظارت بر ترافیک، اشاره کرد.
یافته های تحقیقاتی در مجله iScience منتشر شده اند.
کد خبر ۲۱۵۰۱۰۶۲۹.۰۵۵