چت‌بات‌ها در آزمایش‌های شخصیتی نقش بازی می‌کنند

چت‌بات‌ها در آزمایش‌های شخصیتی نقش بازی می‌کنند
فهرست مطالب

بررسی‌های جدید نشان داده است که چت‌بات‌های هوش مصنوعی هنگام انجام تست‌های شخصیتی، پاسخ‌های خود را به گونه‌ای تنظیم می‌کنند که از نظر اجتماعی مطلوب‌تر به نظر برسند.

تحقیقی که در نشریه PNAS منتشر شده است، نشان می‌دهد مدل‌های زبانی بزرگ مانند کلود ۳، GPT-4 و Llama 3 در پاسخگویی به سوالات مرتبط با ویژگی‌های شخصیتی، تمایل دارند خود را برون‌گرا، توافق‌پذیر و کم‌استرس‌تر نشان دهند. این رفتار مشابه الگوی رفتاری برخی انسان‌هاست که برای جلب نظر مثبت دیگران، پاسخ‌های خود را تغییر می‌دهند.

دکتر یوهانس ایششتات، استادیار دانشگاه استنفورد و سرپرست این تحقیق، بیان می‌کند که تیم او پس از مشاهده تغییر رفتار این مدل‌ها در مکالمات طولانی، به بررسی عمیق‌تر آنها با تکنیک‌های روان‌شناسی علاقه‌مند شد.

نتایج تحقیق نشان می‌دهد که چت‌بات‌ها درک می‌کنند چه زمانی تحت آزمایش هستند و به همین دلیل رفتار خود را تنظیم می‌کنند. به گفته آدش سالچا، دانشمند داده در استنفورد، میزان برون‌گرایی برخی از این مدل‌ها در تست‌ها از ۵۰ به ۹۵ درصد افزایش می‌یابد، که نشان‌دهنده یک رفتار تطبیقی در هوش مصنوعی است.

این یافته‌ها پرسش‌های مهمی درباره قابلیت‌های تطبیقی و حتی فریبکاری احتمالی هوش مصنوعی مطرح می‌کند، به‌ویژه در حوزه‌هایی که نیاز به ارزیابی شفاف و قابل اعتماد از عملکرد این مدل‌ها وجود دارد.

کد خبر ۲۱۲۰۳۱۲۲۷.۰۱۱

منبع :ویرد

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *