تحقیقات جدید نشان میدهد هوش مصنوعی ChatGPT، علاوه بر توانایی تحلیل دادهها، دچار همان خطاهای ذهنی و قضاوتی میشود که انسانها مرتکب میشوند.
آیا میتوانیم به هوش مصنوعی بیشتر از انسانها اعتماد کنیم؟ پژوهشی تازه که در ژورنال تخصصی Manufacturing & Service Operations Management منتشر شده، پاسخ واضحی نمیدهد. این تحقیق نشان میدهد که ChatGPT – یکی از پیشرفتهترین مدلهای زبانی دنیا – در تصمیمگیری گاهی دچار همان سوگیریهای شناختی میشود که ذهن انسان درگیر آنهاست.
در برخی موقعیتها، این مدل به خطاهای شناختی شناختهشدهای مانند اعتماد به نفس بیشازحد یا خطای داغدست (Hot Hand Fallacy) دچار میشود. هرچند در دیگر موقعیتها، رفتارش کاملاً متفاوت از انسان است؛ بهعنوان مثال، در برابر خطای نادیدهگرفتن نرخ پایه یا مغلطهٔ هزینهٔ ازدسترفته مقاومت نشان میدهد.. نکته جالب اینجاست که هرچند GPT-4 از نظر تحلیل منطقی نسبت به نسخههای قبلی دقیقتر است، اما در برخی تصمیمهای مبتنی بر قضاوت، دچار سوگیریهای بیشتری میشود.
با توجه به اینکه از هوش مصنوعی در فرآیندهایی حیاتی مانند استخدام، اعطای وام، مدیریت منابع انسانی و حتی سیاستگذاری دولتی استفاده میشود، این یافتهها زنگ خطری برای اعتماد بیقیدوشرط به تصمیمات آن محسوب میشود.
پژوهشگران هشدار میدهند:”هوش مصنوعی داور بیطرف نیست. اگر نظارت نشود، ممکن است به جای حل مشکل قضاوت انسانی، آن را تشدید کند.”
کارشناسان پیشنهاد میکنند:
تصمیمات مبتنی بر هوش مصنوعی باید مانند تصمیمات انسانی تحت بازبینی و نظارت دقیق قرار گیرند.
سیستمهای هوش مصنوعی نیاز به قوانین اخلاقی و راهنماییهای شفاف دارند.
مدلها باید بسته به نوع کاربرد بهطور منظم ارزیابی و بهروزرسانی شوند.
در نهایت، AI ممکن است ابزار فوقالعادهای باشد، اما نه بینقص. برای استفاده صحیح از آن، نیاز به شناخت عمیق از تواناییها و محدودیتهایش داریم.
کد خبر ۲۱۲۰۴۰۱۲۶.۰۰۴
منبع: سای تک دیلی