هشدار درباره فروپاشی مدل‌های هوش مصنوعی

هشدار درباره فروپاشی مدل‌های هوش مصنوعی
فهرست مطالب

محققان می‌گویند مدل‌های «هوش مصنوعی» با جذب داده‌های تولید شده توسط مدل‌های دیگر این سامانه، نشانه‌هایی از فروپاشی را نشان می‌دهند.

استیون وان-نیکولز، ستون‌نویس فناوری، در مقاله‌ای برای نشریه The Register هشدار می‌دهد که پدیده‌ای به نام «فروپاشی مدل» زمانی رخ می‌دهد که مدل‌های زبانی بزرگ (LLM) با داده‌های مصنوعی و تولیدشده توسط هوش مصنوعی تغذیه شوند و نتیجه آن منحرف شدن مدل‌ها از مسیر صحیح است. حتی تلاش‌ها برای مقابله با این پدیده نیز خود به کابوسی جدید تبدیل شده‌اند.

صنعت هوش مصنوعی با شتاب زیادی به سوی روزی می‌رود که تمامی داده‌های آموزشی اصیل — یعنی اطلاعاتی که توسط انسان‌ها تولید شده‌اند — تمام شود. برخی کارشناسان، از جمله ایلان ماسک، معتقدند که این نقطه بحرانی همین حالا فرا رسیده است.

برای مقابله با این مشکل، شرکت‌های بزرگی مانند گوگل، OpenAI و Anthropic به تکنیکی به نام «تولید تقویت‌شده با بازیابی» (RAG) روی آورده‌اند. این روش به مدل‌های زبانی اجازه می‌دهد در صورت مواجهه با سوالی خارج از داده‌های آموزشی، با جستجو در اینترنت پاسخ دهند.

اما مشکل اینجاست که اینترنت اکنون پر از محتوای بی‌کیفیت و تولیدشده به‌وسیله هوش مصنوعی است که پاسخ‌هایی اغلب غلط و خنده‌دار ارائه می‌دهد. پژوهشی تازه از بخش تحقیقات رسانه‌ای مایکل بلومبرگ که در کنفرانس زبان‌شناسی محاسباتی ارائه شده، نشان می‌دهد مدل‌های زبانی که از تکنیک RAG استفاده می‌کنند، مانند GPT-4o، Claude-3.5-Sonnet و Gemma-7B، پاسخ‌های «ناامن» بیشتری نسبت به نمونه‌های غیر RAG تولید کرده‌اند. این پاسخ‌ها می‌توانند شامل محتواهای مضر، غیرقانونی، توهین‌آمیز و نادرست باشند که به اطلاعات غلط دامن زده و امنیت و حریم خصوصی افراد را به خطر می‌اندازند.

آماندا استنت، مدیر تحقیقات هوش مصنوعی بلومبرگ، می‌گوید: «این یافته‌های غیرمنتظره پیامدهای گسترده‌ای دارد چون RAG در بسیاری از کاربردهای هوش مصنوعی مولد مثل سیستم‌های پاسخ به مشتری و سامانه‌های پرسش و پاسخ به کار می‌رود. کاربران معمولی اینترنت روزانه با این سیستم‌ها تعامل دارند و متخصصان هوش مصنوعی باید در استفاده مسئولانه از RAG دقت کنند.»

اگر داده‌های آموزشی اصیل تمام شود — یا همین حالا تمام شده باشد — و اتصال مدل‌ها به اینترنت به دلیل کیفیت پایین محتوای آنلاین بی‌فایده باشد، آینده آموزش مدل‌های هوش مصنوعی چه خواهد بود؟ برخی پیشنهاد می‌دهند ترکیب داده‌های اصیل و مصنوعی، راهکار باشد، اما این نیازمند ادامه تولید محتوای واقعی توسط انسان‌ها است، در حالی که صنعت هوش مصنوعی با برداشت بدون اجازه از این آثار، انگیزه انسان‌ها برای تولید را تضعیف می‌کند.

وان-نیکولز پیش‌بینی می‌کند راه سوم در حال وقوع است: «ما همچنان به سرمایه‌گذاری بیشتر در هوش مصنوعی ادامه می‌دهیم تا زمانی که فروپاشی مدل‌ها به حدی برسد که حتی یک مدیرعامل بی‌توجه هم نتواند آن را نادیده بگیرد».

کد خبر ۲۰۲۰۴۰۳۱۳.۰۸۹

منبع:فیوچریسم

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *