سقوط کامل مدل‌های پیشرفته هوش مصنوعی در مواجهه با مسائل پیچیده

سقوط کامل مدل‌های پیشرفته هوش مصنوعی در مواجهه با مسائل پیچیده
فهرست مطالب

یک مطالعه تازه منتشر شده توسط شرکت اپل، جنجالی جدید در دنیای هوش مصنوعی به پا کرده است. این تحقیق نشان می‌دهد که مدل‌های پیشرفته استدلال هوش مصنوعی مانند مدل‌های اپن‌ای‌آی (OpenAI) و دیپ‌سیک (DeepSeek) زمانی که با مسائل بسیار پیچیده مواجه می‌شوند، دچار «سقوط کامل دقت» شده و عملکردشان به‌شدت افت می‌کند.

این مدل‌های تخصصی که برای پاسخ‌های دقیق‌تر و پیچیده‌تر طراحی شده‌اند، برخلاف ادعاهای شرکت‌های بزرگ فناوری مبنی بر نزدیک بودن به هوش مصنوعی عمومی (AGI)، در عمل در حل مسائل فراتر از یک سطح بحرانی به کلی ناکارآمد می‌شوند. بر اساس این تحقیق، این مدل‌ها پس از رسیدن به سطحی از پیچیدگی، توانایی دنبال کردن زنجیره تفکر منطقی را از دست می‌دهند و حتی زمانی که راه‌حل صحیح به آن‌ها داده می‌شود، قادر به بهبود عملکردشان نیستند.

مطالعه اپل که در سایت رسمی پژوهش‌های یادگیری ماشینی این شرکت منتشر شده، چهار معمای کلاسیک را به مدل‌های مختلف شامل o1 و o3 از اپن‌ای‌آی، R1 از دیپ‌سیک، کلود از متا و جمینی از گوگل داده است. نتایج نشان داده مدل‌های استدلالی در مسائل ساده‌تر عملکرد خوبی دارند اما با افزایش پیچیدگی، هم این مدل‌ها و هم مدل‌های معمولی، عملکردشان به شدت افت می‌کند و تقریباً به صفر می‌رسد.

این یافته‌ها نشان می‌دهد که این مدل‌ها بیشتر به الگوهای آماری تکیه دارند و فاقد درک واقعی یا استدلال منطقی عمیق هستند. همچنین، مدل‌های استدلالی بیش‌تر مستعد خطا و تولید اطلاعات نادرست (که به آن «توهم» یا hallucination گفته می‌شود) هستند.

کارشناسان هوش مصنوعی این مطالعه را ضربه‌ای مهم به ادعاهای بلندپروازانه برخی شرکت‌ها در مورد رسیدن به هوش مصنوعی برتر دانسته و آن را یادآوری می‌کنند که مدل‌های زبانی بزرگ هنوز محدودیت‌های بنیادی دارند و نباید به سادگی به آن‌ها اعتماد کرد.

کد خبر ۲۱۲۰۴۰۳۲۶.۵۰۹

منبع:لایوساینس

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *