یک مطالعه تازه منتشر شده توسط شرکت اپل، جنجالی جدید در دنیای هوش مصنوعی به پا کرده است. این تحقیق نشان میدهد که مدلهای پیشرفته استدلال هوش مصنوعی مانند مدلهای اپنایآی (OpenAI) و دیپسیک (DeepSeek) زمانی که با مسائل بسیار پیچیده مواجه میشوند، دچار «سقوط کامل دقت» شده و عملکردشان بهشدت افت میکند.
این مدلهای تخصصی که برای پاسخهای دقیقتر و پیچیدهتر طراحی شدهاند، برخلاف ادعاهای شرکتهای بزرگ فناوری مبنی بر نزدیک بودن به هوش مصنوعی عمومی (AGI)، در عمل در حل مسائل فراتر از یک سطح بحرانی به کلی ناکارآمد میشوند. بر اساس این تحقیق، این مدلها پس از رسیدن به سطحی از پیچیدگی، توانایی دنبال کردن زنجیره تفکر منطقی را از دست میدهند و حتی زمانی که راهحل صحیح به آنها داده میشود، قادر به بهبود عملکردشان نیستند.
مطالعه اپل که در سایت رسمی پژوهشهای یادگیری ماشینی این شرکت منتشر شده، چهار معمای کلاسیک را به مدلهای مختلف شامل o1 و o3 از اپنایآی، R1 از دیپسیک، کلود از متا و جمینی از گوگل داده است. نتایج نشان داده مدلهای استدلالی در مسائل سادهتر عملکرد خوبی دارند اما با افزایش پیچیدگی، هم این مدلها و هم مدلهای معمولی، عملکردشان به شدت افت میکند و تقریباً به صفر میرسد.
این یافتهها نشان میدهد که این مدلها بیشتر به الگوهای آماری تکیه دارند و فاقد درک واقعی یا استدلال منطقی عمیق هستند. همچنین، مدلهای استدلالی بیشتر مستعد خطا و تولید اطلاعات نادرست (که به آن «توهم» یا hallucination گفته میشود) هستند.
کارشناسان هوش مصنوعی این مطالعه را ضربهای مهم به ادعاهای بلندپروازانه برخی شرکتها در مورد رسیدن به هوش مصنوعی برتر دانسته و آن را یادآوری میکنند که مدلهای زبانی بزرگ هنوز محدودیتهای بنیادی دارند و نباید به سادگی به آنها اعتماد کرد.
کد خبر ۲۱۲۰۴۰۳۲۶.۵۰۹
منبع:لایوساینس