مدل‌های خودآموز هوش مصنوعی با همکاری DeepSeek و تسینگهوا

مدل‌های خودآموز هوش مصنوعی با همکاری DeepSeek و تسینگهوا
فهرست مطالب

استارت‌آپ چینی DeepSeek با همکاری دانشگاه تسینگهوا در پکن، در حال توسعه نسل جدیدی از مدل‌های هوش مصنوعی است که نیاز به آموزش‌های سنگین و پرهزینه را کاهش می‌دهند. این اقدام با هدف کاهش هزینه‌های عملیاتی و بهینه‌سازی عملکرد مدل‌های زبانی صورت گرفته است.

در مقاله‌ای علمی که به‌تازگی منتشر شده، پژوهشگران به روش جدیدی در یادگیری تقویتی (Reinforcement Learning) پرداخته‌اند که می‌تواند پاسخ‌های هوش مصنوعی را با دقت و شفافیت بیشتری با ترجیحات انسانی هماهنگ کند. این روش، که با نام Self-Principled Critique Tuning معرفی شده، موفق شده است عملکرد بهتری نسبت به روش‌های موجود ارائه دهد، آن‌هم با مصرف منابع پردازشی کمتر.

مدل‌های جدید با نام DeepSeek-GRM (مخفف مدل‌سازی پاداش همه‌منظوره) به‌صورت متن‌باز منتشر خواهند شد. این مدل‌ها از معماری Mixture of Experts (MoE) بهره می‌برند که باعث می‌شود کارایی بالاتری با منابع کمتر حاصل شود؛ رویکردی که اخیراً شرکت‌های بزرگی مثل Meta و OpenAI نیز به آن روی آورده‌اند.

در حالی که Meta به‌تازگی مدل‌های Llama 4 را معرفی کرده، DeepSeek هم در حال توسعه مدل پرچم‌دار بعدی خود است، هرچند هنوز تاریخ انتشار آن مشخص نشده. رقابت میان بازیگران بزرگ و نوظهور دنیای هوش مصنوعی وارد مرحله‌ای تازه شده که تمرکز اصلی‌اش بر استدلال بهتر، بهینه‌سازی خودکار و یادگیری در حین انجام وظایف است.

کد خبر ۲۱۲۰۴۰۱۲۰.۱۶۵

منبع: بلومبرگ

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *