Jetzt mit DeepSeek-V3.2 chatten
DeepSeek-V3.2: Ein auf Schlussfolgerungen fokussiertes großes Sprachmodell
DeepSeek-V3.2 wurde von DeepSeek am 1. Dezember 2025 veröffentlicht. Es handelt sich um eine Weiterentwicklung des früheren Modells V3.2-Exp , das am 29. September 2025 auf den Markt kam, und es ist sowohl in einer Standard- als auch in einer „Speciale“-Variante für Forschungs- und Produktionszwecke erhältlich.
DeepSeek-V3.2 ist ein Transformer-basiertes LLM, das eine spärliche Mixture-of-Experts-Architektur sowie einen benutzerdefinierten „ DeepSeek Sparse Attention “-Mechanismus verwendet, um den Rechenaufwand zu reduzieren und gleichzeitig eine hohe Qualität zu gewährleisten. Es zielt auf Aufgaben wie Programmierung, Mathematik, Forschungsunterstützung und mehrstufiges Schließen ab und ist für die Unterstützung autonomer Agenten und Tool-Aufruf-Workflows konzipiert, anstatt nur für einfache Chats.
Effizienz und Leistung von DeepSeek-V3.2
DeepSeek-V3.2 basiert auf einem Mixture-of-Experts-Framework (MoE) mit insgesamt 671 Milliarden Parametern, aktiviert aber aus Effizienzgründen nur etwa 37 Milliarden pro token . Dieses Modell kann lange Kontexte (bis zu 128.000+ Token) kostengünstiger verarbeiten als Dense-Attention-Modelle und erzielt dabei eine vergleichbare oder sogar bessere Benchmark-Performance als V3.2.
Benchmarks und Berichte beschreiben es als konkurrenzfähig mit Spitzenmodellen (wie GPT-5.1 oder Gemini 3 Pro) bei Aufgaben mit hohem Denkaufwand, insbesondere in seinen rechenintensiveren Varianten.
Varianten von DeepSeek-V3.2
- DeepSeek-V3.2: Mainstream-Version, optimiert für allgemeine Schlussfolgerungen und den täglichen Einsatz.
- DeepSeek-V3.2-Speciale: Hochleistungsvariante für anspruchsvolle Aufgaben, die sich in spezialisierten Bereichen auszeichnet, jedoch einen höheren token aufweist; vorübergehend nur über die API bis Mitte Dezember 2025 zur Evaluierung verfügbar.
Vergleich von DeepSeek-V3.2 und anderen fortgeschrittenen Modellen
DeepSeek-V3.2 erreicht oder übertrifft führende Modelle wie GPT-5.1 und Gemini 3 Pro in wichtigen Benchmarks, insbesondere in Mathematik, Programmierung und Aufgaben mit langem Kontext. Hier eine Zusammenfassung des Vergleichs dieser Modelle:
| Aspekt | DeepSeek-V3.2 | DeepSeek-V3.2-Speciale | GPT-5.1 | Gemini 3 Pro |
| Entwickler | DeepSeek AI (China) | DeepSeek AI (China) | OpenAI (USA) | Google DeepMind (USA) |
| Veröffentlichungsdatum | 1. Dezember 2025 | 1. Dezember 2025 (anfangs nur API) | 12. November 2025 | 17. November 2025 |
| Parameter | 671 Mrd. insgesamt (MoE, ~37 Mrd. aktiv) | 671 Mrd. insgesamt (MoE, ~37 Mrd. aktiv) | Nicht offengelegt (geschätzt >1 Billion) | Nicht offengelegt (geschätzt >1 Billion) |
| Kontextlänge | 128.000–131.000 Token | 128.000–131.000 Token (optimiert für längere Schlussfolgerungen) | >128.000 Token (wahrscheinlich über 1 Million) | Über 1 Million Token (in einigen Spielmodi bis zu 2 Millionen) |
| Hauptmerkmale | Reasoning-first, DeepSeek Sparse Attention (DSA) für Effizienz, integrierte Werkzeugnutzung mit Denkprozessen, agentenbasierte Arbeitsabläufe | Variante mit hohem Rechenaufwand, gelockerte Längenbeschränkungen für komplexe Aufgaben, hervorragend geeignet für Mathematik-/Programmierolympiaden | Intelligenteres Denken, angenehmerer Umgangston/Persönlichkeit, starke Generalistenleistung, multimodal | Native Multimodalität, modernste Denk- und Werkzeugnutzung, umfassendes Verständnis von Langzeitkontexten, kreative/strategische Planung |
| Zugang | Open Source (MIT-Lizenz), Hugging Face, API, kostenlose App/Web | Zunächst nur API-basiert (ab Mitte Dezember 2025) | API/Abonnement (kostenpflichtige Stufen) | API/Abonnement (kostenpflichtige Stufen) |
| AIME 2025 (Mathematik) | 93,1 % | 96,0 % | 94,6 % | 95,0 % (100 % mit Codeausführung) |
| HMMT 2025 (Mathematik) | 92,5 % | 99,2 % | N / A | 97,5 % |
| SWE-Bench-Verifizierung (Codierung) | ~67-73% (variiert je nach Bewertung) | 73,1 % | ~62-70% (abgeleitet) | 76,2 % |
| Terminal-Bench 2.0 (Agentic Coding) | 46,4 % | Höher (optimiert) | 35,2 % | 54,2 % |
So greifen Sie auf DeepSeek-V3.2 zu
Der Zugriff ist über kostenlose und kostenpflichtige Kanäle möglich, darunter Web-Oberflächen, mobile Apps, APIs und direkte Downloads für die lokale Installation.
- HIX AI: Hier bieten wir Ihnen einen sofortigen und einfachen Zugriff auf DeepSeek-V3.2 sowie auf frühere Versionen wie DeepSeek-V3.2 und DeepSeek-R1 .
- Web- und Mobil-App: Eine weitere Möglichkeit für Gelegenheitsnutzer, mit DeepSeek-V3.2 zu interagieren, bieten die offiziellen Plattformen von DeepSeek, darunter die offizielle Website https://www.deepseek.com/ und die mobile App DeepSeek .
- API-Zugriff: Die DeepSeek-API ist OpenAI kompatibel und lässt sich daher problemlos in Apps oder Skripte integrieren.
- Lokale Bereitstellung: Dies ist ein entwicklerorientierter Ansatz. Sie können das Modell von der Hugging Face Seite herunterladen: https://huggingface.co/deepseek-ai/ DeepSeek-V3.2 und es auf Ihrer eigenen Hardware ausführen.
Fragen und Antworten
Was sind die wichtigsten Varianten von DeepSeek V3.2?
Die wichtigsten Produktionsvarianten sind DeepSeek-V3.2 (ausgewogenes Modell für den täglichen Gebrauch) und DeepSeek-V3.2-Speciale (ein High-End-Modell für sehr schwierige mathematische, Programmier- und Wettbewerbsaufgaben).
Wie schneidet DeepSeek-V3.2 im Vergleich zu GPT-5.1 oder Gemini 3 Pro hinsichtlich der Leistung ab?
DeepSeek-V3.2 zeichnet sich durch hervorragende Mathematik-/Codierungsfunktionen und Effizienz aus und kann mit diesen Spitzenmodellen zu geringeren Kosten konkurrieren.
Unterstützt DeepSeek-V3.2 multimodale Eingaben wie Bilder oder Videos?
Aktuell unterstützt DeepSeek-V3.2 nur Texteingaben. Es ist für die Verarbeitung langer Texte, Codes und Dokumente optimiert.
Was ist das Kontextfenster von DeepSeek V3.2?
DeepSeek V3.2 erbt ein langes Kontextfenster (ca. 128.000 Tokens), das durch spärliche Aufmerksamkeit ermöglicht wird und es erlaubt, Hunderte von Textseiten in einer einzigen Eingabeaufforderung zu verarbeiten.
Wie schneidet V3.2 im Vergleich zu früheren DeepSeek Versionen ab?
V3.2 baut auf der V3.1„Terminus“-Generation auf, konzentriert sich aber eher auf Effizienz und logisches Verhalten als auf reine Benchmark-Sprünge und zielt dank sparsamer Aufmerksamkeit und aktualisiertem Training/Ausrichtung auf eine ähnliche oder bessere Qualität zu wesentlich geringeren Kosten ab.
Was ist DeepSeek Sparse Attention (DSA) und warum ist es wichtig?
DeepSeek Sparse Attention ist ein feinkörniger Sparse-Attention-Mechanismus, der die Anzahl der Aufmerksamkeitsoperationen pro Token reduziert und so die Verarbeitung langer Kontexte deutlich günstiger macht, während die Qualität nahezu der früherer Dense-Attention-Modelle entspricht.


