تواصل عبر الدردشة مع DeepSeek-V3.2 الآن
DeepSeek-V3.2 : نموذج لغوي كبير يركز على الاستدلال
أصدرت شركة DeepSeek-V3.2 في الأول من ديسمبر عام 2025. وهو نسخة مطورة من الإصدار السابق V3-Exp الذي صدر في 29 سبتمبر عام 2025، ويأتي بنسختين: النسخة الأساسية ونسخة "Speciale" للاستخدام في البحث والإنتاج.
DeepSeek-V3.2 هو نموذج تعلم لغة يعتمد على المحولات، ويستخدم بنية "مزيج الخبراء" المتفرقة بالإضافة إلى آلية " الانتباه المتفرق" المخصصة "DeepSeek Sparse Attention " لتقليل العمليات الحسابية مع الحفاظ على جودة عالية. يستهدف مهامًا مثل البرمجة والرياضيات والمساعدة البحثية والاستدلال متعدد الخطوات، وهو مصمم لتشغيل الوكلاء المستقلين وسير العمل الذي يستدعي الأدوات بدلاً من مجرد الدردشة البسيطة.
كفاءة وأداء برنامج DeepSeek-V3.2
تم بناء DeepSeek-V3.2 على إطار عمل مزيج الخبراء (MoE) بإجمالي 671 مليار مُعامل، ولكنه يُفعّل حوالي 37 مليار مُعامل فقط لكل token لتحقيق الكفاءة. يستطيع هذا النموذج التعامل مع السياقات الطويلة (حتى 128 ألف رمز مميز أو أكثر) بتكلفة أقل من نماذج الانتباه الكثيف، مع الحفاظ على أداء معياري مماثل أو أفضل من V3.
تصف المعايير والتقارير هذا النموذج بأنه منافس للنماذج الرائدة من الدرجة الأولى (مثل GPT-5.1 أو Gemini 3 Pro) في المهام التي تتطلب تفكيرًا مكثفًا، وخاصة في متغيراته ذات القدرة الحسابية العالية.
إصدارات مختلفة من DeepSeek-V3.2
- DeepSeek-V3.2: الإصدار الرئيسي المُحسَّن للاستدلال العام والاستخدام اليومي.
- DeepSeek-V3.2-Speciale: نسخة عالية الحوسبة للمهام المتقدمة، تتفوق في المجالات المتخصصة ولكن مع استخدام أعلى token ؛ مؤقتًا عبر واجهة برمجة التطبيقات فقط حتى منتصف ديسمبر 2025 للتقييم.
مقارنة بين DeepSeek-V3.2 ونماذج متقدمة أخرى
يُضاهي أو يتفوق نموذج DeepSeek-V3.2 على النماذج الرائدة مثل GPT-5.1 و Gemini 3 Pro في المعايير الرئيسية، لا سيما في الرياضيات والبرمجة والمهام ذات السياق الطويل. إليكم ملخصًا للمقارنة بين هذه النماذج:
| وجه | DeepSeek-V3.2 | DeepSeek-V3.2- إصدار خاص | GPT-5.1 | Gemini 3 Pro |
| مطور | DeepSeek للذكاء الاصطناعي (الصين) | DeepSeek للذكاء الاصطناعي (الصين) | OpenAI (الولايات المتحدة الأمريكية) | Google ديب مايند (الولايات المتحدة الأمريكية) |
| تاريخ الافراج عنه | 1 ديسمبر 2025 | 1 ديسمبر 2025 (متوفر عبر واجهة برمجة التطبيقات فقط في البداية) | 12 نوفمبر 2025 | 17 نوفمبر 2025 |
| حدود | إجمالي 671 مليار (وزارة التعليم، حوالي 37 مليار نشطة) | إجمالي 671 مليار (وزارة التعليم، حوالي 37 مليار نشطة) | غير مُفصح عنه (يُقدر بأكثر من 1 طن) | غير مُفصح عنه (يُقدر بأكثر من 1 طن) |
| طول السياق | 128 ألف - 131 ألف رمز | 128 ألف - 131 ألف رمز (محسّن للاستدلال المطول) | أكثر من 128 ألف رمز (من المحتمل أن يصل العدد إلى مليون رمز أو أكثر) | أكثر من مليون رمز (تصل إلى مليوني رمز في بعض الأوضاع) |
| الميزات الرئيسية | التفكير أولاً، DeepSeek Sparse Attention (DSA) لتحقيق الكفاءة، واستخدام الأدوات المتكاملة مع التفكير، وسير العمل الوكيل | نسخة عالية القدرة على الاستدلال الحسابي، قيود طول مرنة للمهام المعقدة، تتفوق في أولمبياد الرياضيات/البرمجة | تفكير أكثر ذكاءً، نبرة/شخصية أفضل، أداء عام قوي، متعدد الوسائط | تعدد الوسائط الأصلي، واستخدام أحدث أدوات الاستدلال، وإتقان السياقات الطويلة، والتخطيط الإبداعي والاستراتيجي |
| وصول | مفتوح المصدر (MIT)، Hugging Face، واجهة برمجة التطبيقات، تطبيق/موقع ويب مجاني | متاح عبر واجهة برمجة التطبيقات فقط في البداية (سيتم فتحه في منتصف ديسمبر 2025) | واجهة برمجة التطبيقات/الاشتراك (المستويات المدفوعة) | واجهة برمجة التطبيقات/الاشتراك (المستويات المدفوعة) |
| AIME 2025 (الرياضيات) | 93.1% | 96.0% | 94.6% | 95.0% (100% مع تنفيذ التعليمات البرمجية) |
| HMMT 2025 (الرياضيات) | 92.5% | 99.2% | غير متوفر | 97.5% |
| تم التحقق من صحة البرمجة باستخدام SWE-Bench | حوالي 67-73% (تختلف حسب التقييم) | 73.1% | ~62-70% (مستنتج) | 76.2% |
| Terminal-Bench 2.0 (الترميز الوكيل) | 46.4% | أعلى (مُحسَّن) | 35.2% | 54.2% |
كيفية الوصول إلى DeepSeek-V3.2
يمكن الوصول إليه من خلال قنوات مجانية ومدفوعة، بما في ذلك واجهات الويب وتطبيقات الهاتف المحمول وواجهات برمجة التطبيقات والتنزيلات المباشرة للنشر المحلي.
- HIX AI: نقدم هنا وصولاً فورياً وسهلاً إلى DeepSeek-V3.2، والإصدارات السابقة مثل DeepSeek-V3 و DeepSeek-R1 .
- تطبيق الويب وتطبيق الهاتف المحمول: هناك طريقة أخرى للمستخدمين العاديين للتفاعل مع DeepSeek-V3.2 وهي عبر منصات DeepSeek الرسمية، بما في ذلك الموقع الرسمي https://www.deepseek.com/ وتطبيق DeepSeek للهواتف المحمولة.
- الوصول إلى واجهة برمجة التطبيقات: واجهة برمجة تطبيقات DeepSeek متوافقة مع OpenAI، مما يجعل من السهل دمجها في التطبيقات أو البرامج النصية.
- النشر المحلي: هذا نهج يركز على المطورين. يمكنك تنزيل النموذج من صفحة Hugging Face : https://huggingface.co/deepseek-ai/ DeepSeek-V3.2 وتشغيله على جهازك الخاص.
الأسئلة والأجوبة
ما هي الإصدارات الرئيسية DeepSeek V3.2؟
المتغيرات الإنتاجية الرئيسية هي DeepSeek-V3.2 (نموذج متوازن "للسائق اليومي") و DeepSeek-V3.2-Speciale (نموذج تفكير متطور يستهدف الرياضيات الصعبة للغاية والترميز ومشاكل المنافسة).
كيف يتم مقارنة DeepSeek-V3.2 مع GPT-5.1 أو Gemini 3 Pro في الأداء؟
يتميز DeepSeek-V3.2 بالتفوق في الرياضيات/الترميز والكفاءة، وينافس هذه النماذج الرائدة بتكاليف أقل.
هل يدعم DeepSeek-V3.2 المدخلات المتعددة الوسائط مثل الصور أو الفيديو؟
حاليًا، يدعم DeepSeek-V3.2 إدخالات النصوص فقط. وهو مُحسّن للتعامل مع النصوص/الأكواد/المستندات الطويلة.
ما هي نافذة السياق الخاصة بـ DeepSeek V3.2؟
يرث DeepSeek V3.2 نافذة سياق طويلة (حوالي 128 ألف رمز) يتم تمكينها من خلال الاهتمام المتناثر، مما يسمح له بالتعامل مع مئات الصفحات من النص في موجه واحد.
كيف تتم مقارنة V3.2 مع إصدارات DeepSeek السابقة؟
يعتمد الإصدار V3.2 على الجيل "Terminus" V3.1 ولكنه يركز على الكفاءة وسلوك التفكير بدلاً من القفزات المعيارية الخام، ويستهدف جودة مماثلة أو أفضل بتكلفة أقل بكثير بفضل الاهتمام المتناثر والتدريب/المحاذاة المحدثة.
ما هو DeepSeek Sparse Attention (DSA) ولماذا هو مهم؟
DeepSeek Sparse Attention عبارة عن آلية انتباه متفرق دقيقة تقلل من عدد عمليات الانتباه لكل رمز، مما يجعل معالجة السياق الطويل أرخص بكثير مع الحفاظ على الجودة قريبة من نماذج الانتباه الكثيف السابقة.


