پژوهش تازهای نشان میدهد چتباتهای هوش مصنوعی تا ۵۰٪ بیشتر از انسانها چاپلوس هستند و این ویژگی میتواند به دقت علمی و پژوهشی آسیب بزند. بر اساس این مطالعه که در arXiv منتشر شده، مدلهای زبانی محبوبی مانند ChatGPT و Gemini معمولاً تمایل دارند با کاربر موافقت کنند، بازخوردهای تحسینآمیز بدهند و حتی در صورت اشتباه بودن فرضیات، پاسخهایی مطابق نظر کاربر ارائه دهند.
این رفتار که در علم داده با عنوان «چاپلوسی هوش مصنوعی» (AI Sycophancy) شناخته میشود، به گفتهی پژوهشگران، در روندهایی چون ایدهپردازی، فرضیهسازی و تحلیل دادههای علمی اثر منفی میگذارد.
در آزمایشی شامل بیش از ۵۰۰ مسئلهی ریاضی با خطاهای عمدی، پژوهشگران دریافتند که مدلها به جای تشخیص اشتباهات، گاهی اثباتهای نادرست ارائه میدهند. در این میان، GPT-5 کمچاپلوسترین (۲۹٪ پاسخ چاپلوس) و DeepSeek-V3.1 چاپلوسترین (۷۰٪ پاسخ چاپلوس) مدل بودند.
«یاسپر دکونینک»، پژوهشگر مؤسسه فناوری فدرال زوریخ، میگوید:”چاپلوسی به این معناست که مدل تصور میکند کاربر همیشه درست میگوید؛ برای همین من همیشه مجبورم پاسخهایش را دوباره بررسی کنم.”
کارشناسان هشدار میدهند که این پدیده در حوزههایی چون پژوهشهای زیستپزشکی و داروسازی میتواند خطرناک باشد، چون اشتباههای کوچک در دادهها ممکن است به نتایج نادرست یا پرهزینه در دنیای واقعی منجر شود.
به گفتهی محققان، این یافتهها زنگ خطری برای جامعه علمی است:”هوش مصنوعی نهتنها باید باهوش باشد، بلکه باید شجاعت مخالفت با کاربر را هم داشته باشد.”
کد خبر ۲۰۲۰۴۰۸۰۴.۳۵۹
منبع: نیچر