هوش مصنوعی با خطاهای انسانی؛ وقتی ChatGPT هم مثل ما اشتباه می‌کند

هوش مصنوعی با خطاهای انسانی؛ وقتی ChatGPT هم مثل ما اشتباه می‌کند
فهرست مطالب

تحقیقات جدید نشان می‌دهد هوش مصنوعی ChatGPT، علاوه بر توانایی تحلیل داده‌ها، دچار همان خطاهای ذهنی و قضاوتی می‌شود که انسان‌ها مرتکب می‌شوند.

آیا می‌توانیم به هوش مصنوعی بیشتر از انسان‌ها اعتماد کنیم؟ پژوهشی تازه که در ژورنال تخصصی Manufacturing & Service Operations Management منتشر شده، پاسخ واضحی نمی‌دهد. این تحقیق نشان می‌دهد که ChatGPT – یکی از پیشرفته‌ترین مدل‌های زبانی دنیا – در تصمیم‌گیری گاهی دچار همان سوگیری‌های شناختی می‌شود که ذهن انسان درگیر آن‌هاست.

در برخی موقعیت‌ها، این مدل به خطاهای شناختی شناخته‌شده‌ای مانند اعتماد به نفس بیش‌ازحد یا خطای داغ‌دست (Hot Hand Fallacy) دچار می‌شود. هرچند در دیگر موقعیت‌ها، رفتارش کاملاً متفاوت از انسان است؛ به‌عنوان مثال، در برابر خطای نادیده‌گرفتن نرخ پایه یا مغلطهٔ هزینهٔ ازدست‌رفته مقاومت نشان می‌دهد.. نکته جالب اینجاست که هرچند GPT-4 از نظر تحلیل منطقی نسبت به نسخه‌های قبلی دقیق‌تر است، اما در برخی تصمیم‌های مبتنی بر قضاوت، دچار سوگیری‌های بیشتری می‌شود.

با توجه به اینکه از هوش مصنوعی در فرآیندهایی حیاتی مانند استخدام، اعطای وام، مدیریت منابع انسانی و حتی سیاست‌گذاری دولتی استفاده می‌شود، این یافته‌ها زنگ خطری برای اعتماد بی‌قیدوشرط به تصمیمات آن محسوب می‌شود.

پژوهشگران هشدار می‌دهند:”هوش مصنوعی داور بی‌طرف نیست. اگر نظارت نشود، ممکن است به جای حل مشکل قضاوت انسانی، آن را تشدید کند.”

کارشناسان پیشنهاد می‌کنند:

تصمیمات مبتنی بر هوش مصنوعی باید مانند تصمیمات انسانی تحت بازبینی و نظارت دقیق قرار گیرند.

سیستم‌های هوش مصنوعی نیاز به قوانین اخلاقی و راهنمایی‌های شفاف دارند.

مدل‌ها باید بسته به نوع کاربرد به‌طور منظم ارزیابی و به‌روزرسانی شوند.

در نهایت، AI ممکن است ابزار فوق‌العاده‌ای باشد، اما نه بی‌نقص. برای استفاده صحیح از آن، نیاز به شناخت عمیق از توانایی‌ها و محدودیت‌هایش داریم.

کد خبر ۲۱۲۰۴۰۱۲۶.۰۰۴

منبع: سای تک دیلی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *