استناد مدل جدید ChatGPT به «گروکی‌پدیا» ایلان ماسک؛ نگرانی‌ها درباره ورود اطلاعات نادرست

استناد مدل جدید ChatGPT به «گروکی‌پدیا» ایلان ماسک؛ نگرانی‌ها درباره ورود اطلاعات نادرست
فهرست مطالب

بررسی‌های روزنامه گاردین نشان می‌دهد جدیدترین مدل ChatGPT (نسخه GPT-5.2) در پاسخ به برخی پرسش‌ها، از «گروکی‌پدیا» ــ دانشنامه مبتنی بر هوش مصنوعی متعلق به ایلان ماسک ــ به‌عنوان منبع استفاده کرده است؛ موضوعی که نگرانی‌هایی درباره احتمال ورود اطلاعات نادرست به پاسخ‌های این پلتفرم ایجاد کرده است.

طبق این بررسی، ChatGPT در آزمایش‌های انجام‌شده، در پاسخ به بیش از یک‌دوجین سؤال مختلف، ۹ بار به گروکی‌پدیا استناد کرده است. این پرسش‌ها شامل موضوعاتی درباره زندگی‌نامه «سر ریچارد ایوانز»، تاریخ‌نگار بریتانیایی و شاهد پرونده حقوقی علیه یکی از منکران هولوکاست بوده است.

گروکی‌پدیا که از اکتبر سال گذشته راه‌اندازی شده، یک دانشنامه تولیدشده توسط هوش مصنوعی است که هدف آن رقابت با ویکی‌پدیاست. با این حال، این پلتفرم به‌دلیل انتشار روایت‌های بحث‌برانگیز سیاسی و اجتماعی مورد انتقاد قرار گرفته است. برخلاف ویکی‌پدیا، امکان ویرایش مستقیم انسانی در گروکی‌پدیا وجود ندارد و محتوای آن توسط یک مدل هوش مصنوعی تولید و اصلاح می‌شود.

گزارش گاردین نشان می‌دهد ChatGPT در موضوعات حساس و شناخته‌شده، مستقیماً اطلاعات نادرست گروکی‌پدیا را تکرار نکرده، اما در موضوعات تخصصی‌تر و کمتر شناخته‌شده، داده‌های این دانشنامه به‌صورت غیرمستقیم وارد پاسخ‌ها شده است.

نگرانی پژوهشگران حوزه اطلاعات نادرست این است که استناد مدل‌های زبانی بزرگ به منابعی مانند گروکی‌پدیا، می‌تواند اعتبار این منابع را در نگاه کاربران افزایش دهد و به گسترش ناخواسته اطلاعات نادرست بینجامد؛ پدیده‌ای که از آن با عنوان «آلوده‌سازی مدل‌های زبانی» یاد می‌شود.

در واکنش به این گزارش، سخنگوی OpenAI اعلام کرده است که سیستم جست‌وجوی وب این شرکت از طیف گسترده‌ای از منابع عمومی استفاده می‌کند و فیلترهای ایمنی برای کاهش ریسک نمایش منابع کم‌اعتبار به‌کار گرفته شده‌اند. در مقابل، شرکت xAI، مالک گروکی‌پدیا، در اظهارنظری کوتاه رسانه‌های سنتی را به «دروغ‌گویی» متهم کرده است.

این گزارش بار دیگر بحث قدیمی اعتمادپذیری منابع آموزشی هوش مصنوعی و چالش‌های پالایش اطلاعات نادرست در مدل‌های زبانی را به مرکز توجه بازگردانده است.

کد خبر ۲۰۲۰۴۱۱۱۸.۰۶۰

منبع: گاردین

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *