هوش مصنوعی گراک باز هم اطلاعات غلط منتشر کرد

هوش مصنوعی گراک باز هم اطلاعات غلط منتشر کرد
فهرست مطالب

گراک، چت‌بات هوش مصنوعی، باز هم با مشکلاتی در پاسخ‌دهی به کاربران روبه‌رو شده است. پس از تیراندازی در سواحل بوندی استرالیا که در پی جشنواره‌ای به مناسبت شروع جشن هانوکا رخ داد و منجر به مرگ حداقل ۱۶ نفر شد، این چت‌بات به طور مکرر به درخواست‌های کاربران با اطلاعات نادرست یا نامربوط پاسخ می‌دهد.

مشکل عمده در تشخیص هویت افراد در یک ویدئوی ویروسی مشهود است که نشان می‌دهد یک عابر به نام احمد ال احمد، با شجاعت از یک مهاجم سلاح را گرفته است.

با این حال، گروک بارها این فرد را نادرست معرفی کرده و در مواردی دیگر به جزئیات بی‌ربطی درباره ادعاهای تیراندازی‌ها در فلسطین واکنش نشان داده است.

علی‌رغم نادرستی پاسخ‌ها، گروک همچنان به اشتباهات خود ادامه می‌دهد و اطلاعات مربوط به تیراندازی بوندی را با رویدادهای غیرمرتبط مانند تیراندازی در دانشگاه براون در رویدلند ترکیب می‌کند.

 توسعه‌دهنده گراک، xAI، هنوز به طور رسمی در مورد این مشکلات بیانیه‌ای صادر نکرده است، اما این اولین بار نیست که گروک دچار بحران می‌شود. پیش‌تر نیز این چت‌بات خود را با نام «مکاهیتلر» معرفی کرده بود.

کد خبر ۲۰۲۰۴۰۹۲۵.۱۴۳

منبع: انگجت

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *