هوش مصنوعی هم مثل انسان‌ها دچار خطا و اعتماد به‌نفس کاذب می‌شود

هوش مصنوعی هم مثل انسان‌ها دچار خطا و اعتماد به‌نفس کاذب می‌شود
فهرست مطالب

نتایج یک پژوهش تازه نشان می‌دهد که مدل‌های هوش مصنوعی مانند ChatGPT، در بسیاری از مواقع همانند انسان‌ها تصمیم‌هایی غیرمنطقی و متأثر از سوگیری‌های شناختی می‌گیرند. این تحقیق که در تاریخ ۸ آوریل در ژورنال Manufacturing & Service Operations Management منتشر شده، برای نخستین بار عملکرد GPT-3.5 و GPT-4 را در مواجهه با ۱۸ سوگیری روان‌شناختی شناخته‌شده در انسان‌ها مورد بررسی قرار داده است.

پژوهشگران از پنج دانشگاه در کانادا و استرالیا دریافتند که اگرچه این مدل‌ها در استدلال بسیار منسجم ظاهر می‌شوند، اما در حدود نیمی از سناریوها، همان خطاهای ذهنی‌ای را تکرار می‌کنند که معمولاً در انسان‌ها دیده می‌شود؛ از جمله اعتماد به‌نفس بیش از حد، ترجیح اطمینان بر ریسک، و تمایل به دیدن الگو در داده‌های تصادفی.

دکتر یانگ چن، استادیار مدیریت عملیات در مدرسه بازرگانی آیوی و نویسنده اصلی مقاله می‌گوید: «مدیران در مسائلی که راه‌حل مشخص و فرمول‌محور دارند، بیشترین بهره را از هوش مصنوعی می‌برند؛ اما در تصمیم‌هایی که نیاز به قضاوت یا ترجیح شخصی دارد، باید محتاط‌تر عمل کنند.»

جالب‌تر آن‌که در برخی موارد، GPT-4 حتی نسبت به انسان‌ها سوگیری بیشتری نشان داده است. به‌عنوان مثال، در تست سوگیری تأیید، این مدل همیشه پاسخ‌های جانبدارانه می‌داد. در عین حال، این هوش مصنوعی در برخی خطاهای متداول انسانی، مانند نادیده‌گرفتن نرخ پایه یا گرفتار شدن در هزینه‌های ازدست‌رفته، عملکرد بهتری داشت.

پژوهشگران تأکید کرده‌اند که این سوگیری‌ها ناشی از داده‌هایی است که هوش مصنوعی با آن آموزش دیده؛ داده‌هایی که خود منعکس‌کننده رفتارهای ذهنی انسان هستند. با افزایش پیچیدگی و ابهام وظایف، هوش مصنوعی به‌جای منطق خالص، بیشتر به الگوهای تصمیم‌گیری انسانی متمایل می‌شود.

در نهایت، پژوهشگران توصیه می‌کنند که با هوش مصنوعی باید مانند یک کارمند تصمیم‌ساز رفتار کرد؛ با نظارت و دستورالعمل‌های اخلاقی مشخص. در غیر این صورت، به‌جای بهبود تصمیم‌گیری، ممکن است اشتباهات ذهنی را خودکارسازی کنیم.

کد خبر ۲۱۲۰۴۰۲۱۶.۵۰۹

منبع: لایو ساینس

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *