نتایج یک پژوهش تازه نشان میدهد که مدلهای هوش مصنوعی مانند ChatGPT، در بسیاری از مواقع همانند انسانها تصمیمهایی غیرمنطقی و متأثر از سوگیریهای شناختی میگیرند. این تحقیق که در تاریخ ۸ آوریل در ژورنال Manufacturing & Service Operations Management منتشر شده، برای نخستین بار عملکرد GPT-3.5 و GPT-4 را در مواجهه با ۱۸ سوگیری روانشناختی شناختهشده در انسانها مورد بررسی قرار داده است.
پژوهشگران از پنج دانشگاه در کانادا و استرالیا دریافتند که اگرچه این مدلها در استدلال بسیار منسجم ظاهر میشوند، اما در حدود نیمی از سناریوها، همان خطاهای ذهنیای را تکرار میکنند که معمولاً در انسانها دیده میشود؛ از جمله اعتماد بهنفس بیش از حد، ترجیح اطمینان بر ریسک، و تمایل به دیدن الگو در دادههای تصادفی.
دکتر یانگ چن، استادیار مدیریت عملیات در مدرسه بازرگانی آیوی و نویسنده اصلی مقاله میگوید: «مدیران در مسائلی که راهحل مشخص و فرمولمحور دارند، بیشترین بهره را از هوش مصنوعی میبرند؛ اما در تصمیمهایی که نیاز به قضاوت یا ترجیح شخصی دارد، باید محتاطتر عمل کنند.»
جالبتر آنکه در برخی موارد، GPT-4 حتی نسبت به انسانها سوگیری بیشتری نشان داده است. بهعنوان مثال، در تست سوگیری تأیید، این مدل همیشه پاسخهای جانبدارانه میداد. در عین حال، این هوش مصنوعی در برخی خطاهای متداول انسانی، مانند نادیدهگرفتن نرخ پایه یا گرفتار شدن در هزینههای ازدسترفته، عملکرد بهتری داشت.
پژوهشگران تأکید کردهاند که این سوگیریها ناشی از دادههایی است که هوش مصنوعی با آن آموزش دیده؛ دادههایی که خود منعکسکننده رفتارهای ذهنی انسان هستند. با افزایش پیچیدگی و ابهام وظایف، هوش مصنوعی بهجای منطق خالص، بیشتر به الگوهای تصمیمگیری انسانی متمایل میشود.
در نهایت، پژوهشگران توصیه میکنند که با هوش مصنوعی باید مانند یک کارمند تصمیمساز رفتار کرد؛ با نظارت و دستورالعملهای اخلاقی مشخص. در غیر این صورت، بهجای بهبود تصمیمگیری، ممکن است اشتباهات ذهنی را خودکارسازی کنیم.
کد خبر ۲۱۲۰۴۰۲۱۶.۵۰۹
منبع: لایو ساینس