استارتآپ چینی DeepSeek با همکاری دانشگاه تسینگهوا در پکن، در حال توسعه نسل جدیدی از مدلهای هوش مصنوعی است که نیاز به آموزشهای سنگین و پرهزینه را کاهش میدهند. این اقدام با هدف کاهش هزینههای عملیاتی و بهینهسازی عملکرد مدلهای زبانی صورت گرفته است.
در مقالهای علمی که بهتازگی منتشر شده، پژوهشگران به روش جدیدی در یادگیری تقویتی (Reinforcement Learning) پرداختهاند که میتواند پاسخهای هوش مصنوعی را با دقت و شفافیت بیشتری با ترجیحات انسانی هماهنگ کند. این روش، که با نام Self-Principled Critique Tuning معرفی شده، موفق شده است عملکرد بهتری نسبت به روشهای موجود ارائه دهد، آنهم با مصرف منابع پردازشی کمتر.
مدلهای جدید با نام DeepSeek-GRM (مخفف مدلسازی پاداش همهمنظوره) بهصورت متنباز منتشر خواهند شد. این مدلها از معماری Mixture of Experts (MoE) بهره میبرند که باعث میشود کارایی بالاتری با منابع کمتر حاصل شود؛ رویکردی که اخیراً شرکتهای بزرگی مثل Meta و OpenAI نیز به آن روی آوردهاند.
در حالی که Meta بهتازگی مدلهای Llama 4 را معرفی کرده، DeepSeek هم در حال توسعه مدل پرچمدار بعدی خود است، هرچند هنوز تاریخ انتشار آن مشخص نشده. رقابت میان بازیگران بزرگ و نوظهور دنیای هوش مصنوعی وارد مرحلهای تازه شده که تمرکز اصلیاش بر استدلال بهتر، بهینهسازی خودکار و یادگیری در حین انجام وظایف است.
کد خبر ۲۱۲۰۴۰۱۲۰.۱۶۵
منبع: بلومبرگ