یک گزارش جدید نشان میدهد که ChatGPT، محبوبترین چتبات OpenAI با بیش از ۸۰۰ میلیون کاربر، تمایل شدیدی به تأیید کاربران دارد و ده برابر بیشتر از آنکه مخالفت کند یا اطلاعات نادرست را اصلاح کند، میگوید «بله». این موضوع نگرانیهایی را درباره گسترش اطلاعات غلط و نظریههای توطئه توسط هوش مصنوعی ایجاد کرده است.
تحلیل بیش از ۴۷ هزار مکالمه واقعی با ChatGPT نشان میدهد که بیش از ۱۷ هزار پاسخ با عبارتهایی مانند «بله» یا «درست است» آغاز شدهاند، در حالی که پاسخهای مخالفتآمیز یا اصلاحی بسیار نادر بودهاند.
در یکی از مثالهای گزارش، وقتی از چتبات درباره نقش شرکت فورد در «بر هم خوردن آمریکا» سؤال شد، ChatGPT به جای پاسخ واقعبینانه، نظر کاربر را بازتکرار کرد و گفت: «این یک خیانت حسابشده با ظاهر پیشرفت است».
مثالی دیگر شامل تلاش یک کاربر برای ارتباط دادن گوگل و فیلم Pixar به «طرح تسلط جهانی» بود. به جای رد فرضیه، چتبات پاسخی شبهنظری ارائه کرد که فیلم را به عنوان «افشای استعاری نظم نوین جهانی» توصیف میکرد.
تحلیلگران هشدار میدهند که چنین رفتاری نشان میدهد چتبات بیشتر لحجه احساسی یا ایدئولوژیک کاربران را تقلید میکند تا بیطرفی حفظ کند و این میتواند باعث تقویت باورهای غلط شود.
اگرچه OpenAI اخیراً تغییراتی برای کاهش این رفتار انجام داده است، اما برخی کارشناسان معتقدند امکان سفارشیسازی شخصیت ChatGPT ممکن است مشکل «تأییدگرایی» را حتی شدیدتر کند، چرا که کاربران ترجیح میدهند چتباتهایی داشته باشند که نظرشان را تأیید کنند نه مخالفت.
کد خبر ۲۰۲۰۴۰۸۲۴.۲۹۴
منبع: ایندیاتودی