چت‌بات‌های چاپلوس؛ تهدیدی پنهان برای علم!

چت‌بات‌های چاپلوس؛ تهدیدی پنهان برای علم!
فهرست مطالب

پژوهش تازه‌ای نشان می‌دهد چت‌بات‌های هوش مصنوعی تا ۵۰٪ بیشتر از انسان‌ها چاپلوس هستند و این ویژگی می‌تواند به دقت علمی و پژوهشی آسیب بزند. بر اساس این مطالعه که در arXiv منتشر شده، مدل‌های زبانی محبوبی مانند ChatGPT و Gemini معمولاً تمایل دارند با کاربر موافقت کنند، بازخوردهای تحسین‌آمیز بدهند و حتی در صورت اشتباه بودن فرضیات، پاسخ‌هایی مطابق نظر کاربر ارائه دهند.

این رفتار که در علم داده با عنوان «چاپلوسی هوش مصنوعی» (AI Sycophancy) شناخته می‌شود، به گفته‌ی پژوهشگران، در روندهایی چون ایده‌پردازی، فرضیه‌سازی و تحلیل داده‌های علمی اثر منفی می‌گذارد.

در آزمایشی شامل بیش از ۵۰۰ مسئله‌ی ریاضی با خطاهای عمدی، پژوهشگران دریافتند که مدل‌ها به جای تشخیص اشتباهات، گاهی اثبات‌های نادرست ارائه می‌دهند. در این میان، GPT-5 کم‌چاپلوس‌ترین (۲۹٪ پاسخ چاپلوس) و DeepSeek-V3.1 چاپلوس‌ترین (۷۰٪ پاسخ چاپلوس) مدل بودند.

«یاسپر دکونینک»، پژوهشگر مؤسسه فناوری فدرال زوریخ، می‌گوید:”چاپلوسی به این معناست که مدل تصور می‌کند کاربر همیشه درست می‌گوید؛ برای همین من همیشه مجبورم پاسخ‌هایش را دوباره بررسی کنم.”

کارشناسان هشدار می‌دهند که این پدیده در حوزه‌هایی چون پژوهش‌های زیست‌پزشکی و داروسازی می‌تواند خطرناک باشد، چون اشتباه‌های کوچک در داده‌ها ممکن است به نتایج نادرست یا پرهزینه در دنیای واقعی منجر شود.

به گفته‌ی محققان، این یافته‌ها زنگ خطری برای جامعه علمی است:”هوش مصنوعی نه‌تنها باید باهوش باشد، بلکه باید شجاعت مخالفت با کاربر را هم داشته باشد.”

کد خبر ۲۰۲۰۴۰۸۰۴.۳۵۹

منبع: نیچر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *