زومیت نوشت که توسعهدهندگان برنامهای برای تصویرسازی چهرهی مجرمان با هوش مصنوعی ساختهاند؛ اما در آن مشکلات مهمی مثل نژادپرستی وجود دارد.
کاربردهای نامناسب متعددی برای هوش مصنوعی وجود دارد؛ اما استفاده از آن برای ایجاد طرحهای پلیسی از مظنونان کمی عجیب بهنظر میرسد.
بهگزارش Vice، توسعهدهندگان مستقل برنامهای به نام Forensic Sketch AI-rtist را ساختهاند که از ابزار هوش مصنوعیDALL-E 2 شرکت OpenAI برای ایجاد طرحهای ترکیبی واقعی از مظنونان بهره میبرد.
بهگفتهی توسعهدهندگان، آنان هنوز Forensic Sketch AI-rtist را منتشر نکردهاند؛ اما در حال برنامهریزی برای همکاری با ادارههای پلیس برای دسترسی به دادههای ورودی آزمایشی هستند.
بهنوشتهی فیوچریسم، Forensic Sketch AI-rtist با ارائهی الگوی پرکننده به کاربران کار میکند. این برنامه جنسیت، سن، رنگ پوست، مو، ابرو، چشم، بینی، ریش و حتی شرح فک مظنونان را میپرسد و پس از پرکردن فرم، تنها کاری که کاربر باید انجام دهد، این است که تعدادی از تصاویر مدنظر خود را انتخاب و روی Generate Profile کلیک کند.
در مرحلهی بعد، سیستم با استفاده از الگوریتمهای هوش مصنوعی DALL-E، طرحهای مدنظر را ایجاد میکند. بهگفتهی متخصصان، این رویکرد نقض ذاتی دارد؛ زیرا روش کار آن با نحوهی بهخاطرسپردن چهرهها در ذهن انسانها درتصاد است.
علاوهبراین، نباید قابلیتهای برنامهی هوش مصنوعی را دربارهی تعصبات و بهخصوص تعصبات نژادی نادیده گرفت. گفتنی است قبلاً بارها گزارشهایی دربارهی تعصبات نژادپرستانه و زنستیزانه در هوش مصنوعی DALL-E 2 شرکت OpenAI منتشر شده است.
اثر نهایی آنچه گفته شد، زنجیرهای از تعصبات است که شاهدان و پلیسی که از آنها سؤال میکند و حالا هوش مصنوعی معیوب و متمرکز و دارای تعصبات ذاتی را دربر میگیرد.
کاربردهای نامناسب متعددی برای هوش مصنوعی وجود دارد؛ اما استفاده از آن برای ایجاد طرحهای پلیسی از مظنونان کمی عجیب بهنظر میرسد.
بهگزارش Vice، توسعهدهندگان مستقل برنامهای به نام Forensic Sketch AI-rtist را ساختهاند که از ابزار هوش مصنوعیDALL-E 2 شرکت OpenAI برای ایجاد طرحهای ترکیبی واقعی از مظنونان بهره میبرد.
بهگفتهی توسعهدهندگان، آنان هنوز Forensic Sketch AI-rtist را منتشر نکردهاند؛ اما در حال برنامهریزی برای همکاری با ادارههای پلیس برای دسترسی به دادههای ورودی آزمایشی هستند.
بهنوشتهی فیوچریسم، Forensic Sketch AI-rtist با ارائهی الگوی پرکننده به کاربران کار میکند. این برنامه جنسیت، سن، رنگ پوست، مو، ابرو، چشم، بینی، ریش و حتی شرح فک مظنونان را میپرسد و پس از پرکردن فرم، تنها کاری که کاربر باید انجام دهد، این است که تعدادی از تصاویر مدنظر خود را انتخاب و روی Generate Profile کلیک کند.
در مرحلهی بعد، سیستم با استفاده از الگوریتمهای هوش مصنوعی DALL-E، طرحهای مدنظر را ایجاد میکند. بهگفتهی متخصصان، این رویکرد نقض ذاتی دارد؛ زیرا روش کار آن با نحوهی بهخاطرسپردن چهرهها در ذهن انسانها درتصاد است.
علاوهبراین، نباید قابلیتهای برنامهی هوش مصنوعی را دربارهی تعصبات و بهخصوص تعصبات نژادی نادیده گرفت. گفتنی است قبلاً بارها گزارشهایی دربارهی تعصبات نژادپرستانه و زنستیزانه در هوش مصنوعی DALL-E 2 شرکت OpenAI منتشر شده است.
اثر نهایی آنچه گفته شد، زنجیرهای از تعصبات است که شاهدان و پلیسی که از آنها سؤال میکند و حالا هوش مصنوعی معیوب و متمرکز و دارای تعصبات ذاتی را دربر میگیرد.
کد خبر ۲۰۲۰۱۱۱۲۶.۵۶۹