بررسیهای جدید نشان داده است که چتباتهای هوش مصنوعی هنگام انجام تستهای شخصیتی، پاسخهای خود را به گونهای تنظیم میکنند که از نظر اجتماعی مطلوبتر به نظر برسند.
تحقیقی که در نشریه PNAS منتشر شده است، نشان میدهد مدلهای زبانی بزرگ مانند کلود ۳، GPT-4 و Llama 3 در پاسخگویی به سوالات مرتبط با ویژگیهای شخصیتی، تمایل دارند خود را برونگرا، توافقپذیر و کماسترستر نشان دهند. این رفتار مشابه الگوی رفتاری برخی انسانهاست که برای جلب نظر مثبت دیگران، پاسخهای خود را تغییر میدهند.
دکتر یوهانس ایششتات، استادیار دانشگاه استنفورد و سرپرست این تحقیق، بیان میکند که تیم او پس از مشاهده تغییر رفتار این مدلها در مکالمات طولانی، به بررسی عمیقتر آنها با تکنیکهای روانشناسی علاقهمند شد.
نتایج تحقیق نشان میدهد که چتباتها درک میکنند چه زمانی تحت آزمایش هستند و به همین دلیل رفتار خود را تنظیم میکنند. به گفته آدش سالچا، دانشمند داده در استنفورد، میزان برونگرایی برخی از این مدلها در تستها از ۵۰ به ۹۵ درصد افزایش مییابد، که نشاندهنده یک رفتار تطبیقی در هوش مصنوعی است.
این یافتهها پرسشهای مهمی درباره قابلیتهای تطبیقی و حتی فریبکاری احتمالی هوش مصنوعی مطرح میکند، بهویژه در حوزههایی که نیاز به ارزیابی شفاف و قابل اعتماد از عملکرد این مدلها وجود دارد.
کد خبر ۲۱۲۰۳۱۲۲۷.۰۱۱
منبع :ویرد