أصدرت شركة DeepSeek الصينية لتطوير الذكاء الاصطناعي أحدث نماذجها “التجريبية“، والذي قالت إنه أكثر كفاءة في التدريب وأفضل في معالجة سلاسل النص الطويلة مقارنةً بالتكرارات السابقة لنماذج اللغة الكبيرة (LLMs).
أطلقت الشركة التي تتخذ من هانغتشو مقراً لها على النموذج DeepSeek-V3.2-Exp اسم “خطوة وسيطة نحو بنيتنا المعمارية للجيل القادم” في منشور على منتدى المطورين Hugging Face. ومن المرجح أن تكون هذه البنية المعمارية هي أهم إصدار لمنتجات DeepSeek منذ أن أحدثت V3 و R1 صدمة في وادي السيليكون ومجتمع المستثمرين في التكنولوجيا خارج الصين.
يتضمن نموذج V3.2-Exp آلية تُسمى “DeepSeek Sparse Attention” (انتباه DeepSeek المتفرق/الخفيف)، والتي تقو الشركة الصينية إنها يمكن أن تخفض تكاليف الحوسبة وتعزز بعض أنواع أداء النموذج. وقالت DeepSeek في منشور على منصة X يوم الاثنين إنها تخفض أسعار واجهة برمجة التطبيقات (API) الخاصة بها بنسبة “50%+”.
على الرغم من أنه من غير المرجح أن تُحدث البنية المعمارية للجيل القادم من DeepSeek ضجة في الأسواق كما فعلت الإصدارات السابقة في يناير، إلا أنها قد تظل تشكل ضغطاً كبيراً على المنافسين المحليين مثل نموذج Qwen التابع لـ Alibaba ونظيراتها الأمريكية مثل OpenAI إذا تمكنت من تكرار نجاح DeepSeek R1 و V3.
يتطلب ذلك أن تُظهر قدرة عالية مقابل جزء بسيط مما يتقاضاه المنافسون وينفقونه في تدريب النماذج.



