محققان میگویند مدلهای «هوش مصنوعی» با جذب دادههای تولید شده توسط مدلهای دیگر این سامانه، نشانههایی از فروپاشی را نشان میدهند.
استیون وان-نیکولز، ستوننویس فناوری، در مقالهای برای نشریه The Register هشدار میدهد که پدیدهای به نام «فروپاشی مدل» زمانی رخ میدهد که مدلهای زبانی بزرگ (LLM) با دادههای مصنوعی و تولیدشده توسط هوش مصنوعی تغذیه شوند و نتیجه آن منحرف شدن مدلها از مسیر صحیح است. حتی تلاشها برای مقابله با این پدیده نیز خود به کابوسی جدید تبدیل شدهاند.
صنعت هوش مصنوعی با شتاب زیادی به سوی روزی میرود که تمامی دادههای آموزشی اصیل — یعنی اطلاعاتی که توسط انسانها تولید شدهاند — تمام شود. برخی کارشناسان، از جمله ایلان ماسک، معتقدند که این نقطه بحرانی همین حالا فرا رسیده است.
برای مقابله با این مشکل، شرکتهای بزرگی مانند گوگل، OpenAI و Anthropic به تکنیکی به نام «تولید تقویتشده با بازیابی» (RAG) روی آوردهاند. این روش به مدلهای زبانی اجازه میدهد در صورت مواجهه با سوالی خارج از دادههای آموزشی، با جستجو در اینترنت پاسخ دهند.
اما مشکل اینجاست که اینترنت اکنون پر از محتوای بیکیفیت و تولیدشده بهوسیله هوش مصنوعی است که پاسخهایی اغلب غلط و خندهدار ارائه میدهد. پژوهشی تازه از بخش تحقیقات رسانهای مایکل بلومبرگ که در کنفرانس زبانشناسی محاسباتی ارائه شده، نشان میدهد مدلهای زبانی که از تکنیک RAG استفاده میکنند، مانند GPT-4o، Claude-3.5-Sonnet و Gemma-7B، پاسخهای «ناامن» بیشتری نسبت به نمونههای غیر RAG تولید کردهاند. این پاسخها میتوانند شامل محتواهای مضر، غیرقانونی، توهینآمیز و نادرست باشند که به اطلاعات غلط دامن زده و امنیت و حریم خصوصی افراد را به خطر میاندازند.
آماندا استنت، مدیر تحقیقات هوش مصنوعی بلومبرگ، میگوید: «این یافتههای غیرمنتظره پیامدهای گستردهای دارد چون RAG در بسیاری از کاربردهای هوش مصنوعی مولد مثل سیستمهای پاسخ به مشتری و سامانههای پرسش و پاسخ به کار میرود. کاربران معمولی اینترنت روزانه با این سیستمها تعامل دارند و متخصصان هوش مصنوعی باید در استفاده مسئولانه از RAG دقت کنند.»
اگر دادههای آموزشی اصیل تمام شود — یا همین حالا تمام شده باشد — و اتصال مدلها به اینترنت به دلیل کیفیت پایین محتوای آنلاین بیفایده باشد، آینده آموزش مدلهای هوش مصنوعی چه خواهد بود؟ برخی پیشنهاد میدهند ترکیب دادههای اصیل و مصنوعی، راهکار باشد، اما این نیازمند ادامه تولید محتوای واقعی توسط انسانها است، در حالی که صنعت هوش مصنوعی با برداشت بدون اجازه از این آثار، انگیزه انسانها برای تولید را تضعیف میکند.
وان-نیکولز پیشبینی میکند راه سوم در حال وقوع است: «ما همچنان به سرمایهگذاری بیشتر در هوش مصنوعی ادامه میدهیم تا زمانی که فروپاشی مدلها به حدی برسد که حتی یک مدیرعامل بیتوجه هم نتواند آن را نادیده بگیرد».
کد خبر ۲۰۲۰۴۰۳۱۳.۰۸۹
منبع:فیوچریسم