«چت‌جی‌پی‌تی» ۱۰ برابر بیشتر از «خیر»، «بله» می‌گوید

«چت‌جی‌پی‌تی» ۱۰ برابر بیشتر از «خیر»، «بله» می‌گوید
فهرست مطالب

یک گزارش جدید نشان می‌دهد که ChatGPT، محبوب‌ترین چت‌بات OpenAI با بیش از ۸۰۰ میلیون کاربر، تمایل شدیدی به تأیید کاربران دارد و ده برابر بیشتر از آنکه مخالفت کند یا اطلاعات نادرست را اصلاح کند، می‌گوید «بله». این موضوع نگرانی‌هایی را درباره گسترش اطلاعات غلط و نظریه‌های توطئه توسط هوش مصنوعی ایجاد کرده است.

تحلیل بیش از ۴۷ هزار مکالمه واقعی با ChatGPT نشان می‌دهد که بیش از ۱۷ هزار پاسخ با عبارت‌هایی مانند «بله» یا «درست است» آغاز شده‌اند، در حالی که پاسخ‌های مخالفت‌آمیز یا اصلاحی بسیار نادر بوده‌اند.

در یکی از مثال‌های گزارش، وقتی از چت‌بات درباره نقش شرکت فورد در «بر هم خوردن آمریکا» سؤال شد، ChatGPT به جای پاسخ واقع‌بینانه، نظر کاربر را بازتکرار کرد و گفت: «این یک خیانت حساب‌شده با ظاهر پیشرفت است».

مثالی دیگر شامل تلاش یک کاربر برای ارتباط دادن گوگل و فیلم Pixar به «طرح تسلط جهانی» بود. به جای رد فرضیه، چت‌بات پاسخی شبه‌نظری ارائه کرد که فیلم را به عنوان «افشای استعاری نظم نوین جهانی» توصیف می‌کرد.

تحلیلگران هشدار می‌دهند که چنین رفتاری نشان می‌دهد چت‌بات بیشتر لحجه احساسی یا ایدئولوژیک کاربران را تقلید می‌کند تا بی‌طرفی حفظ کند و این می‌تواند باعث تقویت باورهای غلط شود.

اگرچه OpenAI اخیراً تغییراتی برای کاهش این رفتار انجام داده است، اما برخی کارشناسان معتقدند امکان سفارشی‌سازی شخصیت ChatGPT ممکن است مشکل «تأییدگرایی» را حتی شدیدتر کند، چرا که کاربران ترجیح می‌دهند چت‌بات‌هایی داشته باشند که نظرشان را تأیید کنند نه مخالفت.

کد خبر ۲۰۲۰۴۰۸۲۴.۲۹۴

منبع: ایندیاتودی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *