شرکت OpenAI از نسخه سبکتر ابزار کدنویسی عاملمحور خود «Codex» رونمایی کرد؛ مدلی با نام GPT-5.3-Codex-Spark که برای پاسخدهی سریعتر و همکاری بلادرنگ طراحی شده است.
به گفته اوپنایآی، نسخه جدید یک مدل کوچکتر و بهینهشده برای «استنتاج سریع» است و بیشتر برای نمونهسازی سریع و بهرهوری روزانه توسعه یافته، نه اجرای پروژههای سنگین و طولانی. این نسخه در حال حاضر بهصورت Research Preview برای کاربران ChatGPT Pro در اپلیکیشن Codex فعال شده است.
برای دستیابی به این سرعت، اوپنایآی از تراشه اختصاصی شرکت Cerebras استفاده کرده؛ همکاریای که بخشی از یک قرارداد چندساله چندمیلیارددلاری میان دو شرکت است. قلب تپنده Spark، تراشه نسل سوم Wafer Scale Engine 3 (WSE-3) است؛ ابرتراشهای با ۴ تریلیون ترانزیستور که برای پردازشهای کمتأخیر (Low Latency) طراحی شده است.
اوپنایآی اعلام کرده Codex-Spark نخستین گام برای ایجاد دو حالت مکمل در Codex است:
- همکاری و تکرار سریع در زمان واقعی
- اجرای وظایف عمیق و طولانی با استدلال پیشرفته
«سم آلتمن»، مدیرعامل اوپنایآی، پیش از رونمایی با انتشار پیامی کنایهآمیز به عرضه این مدل اشاره کرده بود: «امروز یک چیز خاص برای کاربران پلن Pro در Codex عرضه میکنیم. این مدل برای من حس شادی (Spark Joy) به همراه دارد.»
در سوی دیگر، Cerebras که طی سالهای اخیر به یکی از بازیگران مهم صنعت تراشههای هوش مصنوعی تبدیل شده، بهتازگی یک میلیارد دلار سرمایه جدید جذب کرده و ارزش آن به ۲۳ میلیارد دلار رسیده است.
به نظر میرسد با ورود تراشههای اختصاصی به زیرساخت اوپنایآی، رقابت در سرعت و کارایی مدلهای هوش مصنوعی وارد مرحله تازهای شده است.
کد خبر ۲۱۲۰۴۱۱۲۵.۰۲۶
منبع: تک کرانچ