بررسیهای روزنامه گاردین نشان میدهد جدیدترین مدل ChatGPT (نسخه GPT-5.2) در پاسخ به برخی پرسشها، از «گروکیپدیا» ــ دانشنامه مبتنی بر هوش مصنوعی متعلق به ایلان ماسک ــ بهعنوان منبع استفاده کرده است؛ موضوعی که نگرانیهایی درباره احتمال ورود اطلاعات نادرست به پاسخهای این پلتفرم ایجاد کرده است.
طبق این بررسی، ChatGPT در آزمایشهای انجامشده، در پاسخ به بیش از یکدوجین سؤال مختلف، ۹ بار به گروکیپدیا استناد کرده است. این پرسشها شامل موضوعاتی درباره زندگینامه «سر ریچارد ایوانز»، تاریخنگار بریتانیایی و شاهد پرونده حقوقی علیه یکی از منکران هولوکاست بوده است.
گروکیپدیا که از اکتبر سال گذشته راهاندازی شده، یک دانشنامه تولیدشده توسط هوش مصنوعی است که هدف آن رقابت با ویکیپدیاست. با این حال، این پلتفرم بهدلیل انتشار روایتهای بحثبرانگیز سیاسی و اجتماعی مورد انتقاد قرار گرفته است. برخلاف ویکیپدیا، امکان ویرایش مستقیم انسانی در گروکیپدیا وجود ندارد و محتوای آن توسط یک مدل هوش مصنوعی تولید و اصلاح میشود.
گزارش گاردین نشان میدهد ChatGPT در موضوعات حساس و شناختهشده، مستقیماً اطلاعات نادرست گروکیپدیا را تکرار نکرده، اما در موضوعات تخصصیتر و کمتر شناختهشده، دادههای این دانشنامه بهصورت غیرمستقیم وارد پاسخها شده است.
نگرانی پژوهشگران حوزه اطلاعات نادرست این است که استناد مدلهای زبانی بزرگ به منابعی مانند گروکیپدیا، میتواند اعتبار این منابع را در نگاه کاربران افزایش دهد و به گسترش ناخواسته اطلاعات نادرست بینجامد؛ پدیدهای که از آن با عنوان «آلودهسازی مدلهای زبانی» یاد میشود.
در واکنش به این گزارش، سخنگوی OpenAI اعلام کرده است که سیستم جستوجوی وب این شرکت از طیف گستردهای از منابع عمومی استفاده میکند و فیلترهای ایمنی برای کاهش ریسک نمایش منابع کماعتبار بهکار گرفته شدهاند. در مقابل، شرکت xAI، مالک گروکیپدیا، در اظهارنظری کوتاه رسانههای سنتی را به «دروغگویی» متهم کرده است.
این گزارش بار دیگر بحث قدیمی اعتمادپذیری منابع آموزشی هوش مصنوعی و چالشهای پالایش اطلاعات نادرست در مدلهای زبانی را به مرکز توجه بازگردانده است.
کد خبر ۲۰۲۰۴۱۱۱۸.۰۶۰
منبع: گاردین