Chatea con DeepSeek-V3.2 ahora.
DeepSeek-V3.2: Modelo de lenguaje grande centrado en el razonamiento.
DeepSeek-V3.2 fue publicado por DeepSeek el 1 de diciembre de 2025. Es una evolución del modelo anterior V3.2-Exp , publicado el 29 de septiembre de 2025, y está disponible en las variantes principal y «Speciale» para su uso en investigación y producción.
DeepSeek-V3.2 es un LLM basado en transformadores que utiliza una arquitectura dispersa de Mezcla de Expertos (MoE) plus un mecanismo personalizado de « Atención Dispersa DeepSeek » para reducir la computación manteniendo una alta calidad. Se dirige a tareas como la codificación, las matemáticas, la asistencia en investigación y el razonamiento de múltiples pasos, y está diseñado para potenciar agentes autónomos y flujos de trabajo de llamada a herramientas, en lugar de limitarse a un simple chat.
DeepSeek-V3.2: Eficiencia y rendimiento
DeepSeek-V3.2 se construyó sobre una arquitectura de Mezcla de Expertos (MoE) con un total de 671 mil millones de parámetros, pero activa solo unos 37 mil millones por token para mayor eficiencia. Este modelo es capaz de gestionar contextos largos (de hasta 128K+ tokens) de forma más económica que los modelos de atención densa, manteniendo al mismo tiempo un rendimiento de referencia similar o superior al de V3.2.
Los análisis comparativos y los informes lo describen como competitivo con los modelos de frontera de primer nivel (como GPT-5.1 o Gemini 3 Pro) en tareas con gran carga de razonamiento, especialmente en sus variantes de mayor capacidad de cálculo.
Variantes de DeepSeek-V3.2
- DeepSeek-V3.2: Versión principal optimizada para el razonamiento de propósito general y el despliegue cotidiano.
- DeepSeek-V3.2-Especial: Variante de alta computación para tareas avanzadas, que destaca en dominios especializados pero con un mayor uso de token ; temporalmente solo por API hasta mediados de diciembre de 2025 para su evaluación.
Comparación de DeepSeek-V3.2 y otros modelos avanzados
DeepSeek-V3.2 iguala o supera a modelos punteros como GPT-5.1 y Gemini 3 Pro en los principales benchmarks, especialmente en tareas de matemáticas, programación y de contexto extenso. A continuación, se muestra un resumen de la comparación entre estos modelos:
| Aspecto | DeepSeek-V3.2 | DeepSeek-V3.2-Especial | GPT-5.1 | Gemini 3 Pro |
| Desarrollador | DeepSeek IA (China) | DeepSeek IA (China) | OpenAI (EE. UU.) | Google DeepMind (EE. UU.) |
| Fecha de lanzamiento | 1 de diciembre de 2025 | 1 de diciembre de 2025 (inicialmente, solo API) | 12 de noviembre de 2025 | 17 de noviembre de 2025 |
| Parámetros | 671B en total (MoE, ~37B activos) | 671B en total (MoE, ~37B activos) | No revelado (estimado >1T) | No revelado (estimado >1T) |
| Longitud del contexto | 128K-131K tokens | 128K-131K tokens (optimizado para un razonamiento más extenso) | >128K tokens (probablemente 1M+). | Más de 1M de tokens (hasta 2M en algunos modos) |
| Características principales | El razonamiento primero, la Atención Dispersa de DeepSeek (DSA) para la eficiencia, el uso de herramientas integrado con el pensamiento y los flujos de trabajo agénticos. | Variante de razonamiento de alta computación, con restricciones de longitud relajadas para tareas complejas, destaca en olimpiadas de matemáticas/programación. | Razonamiento más inteligente, mejor tono/personalidad, sólido rendimiento generalista, multimodal | Multimodalidad nativa, razonamiento/uso de herramientas de última generación, dominio de contextos largos, planificación creativa/estratégica. |
| Acceso | Código abierto (MIT), Hugging Face, API, aplicación/web gratuita | Inicialmente solo API (apertura a mediados de dic. de 2025) | API/suscripción (niveles de pago) | API/suscripción (niveles de pago) |
| AIME 2025 (Matemáticas) | 93,1 % | 96,0 % | 94,6 % | 95,0 % (100 % con ejecución de código) |
| HMMT 2025 (Matemáticas) | 92,5 % | 99,2 % | N/A | 97,5 % |
| SWE-Bench Verificado (Codificación) | ~67-73% (varía según la evaluación) | 73,1 % | ~62-70 % (inferido) | 76,2 % |
| Terminal-Bench 2.0 (Codificación agentic) | 46,4 % | Mayor (optimizado) | 35,2 % | 54,2 % |
Cómo acceder a DeepSeek-V3.2
Se puede acceder a través de canales gratuitos y de pago, como interfaces web, aplicaciones móviles, API y descargas directas para su implementación local.
- HIX AI: Aquí ofrecemos un acceso instantáneo y fácil a DeepSeek-V3.2, y a versiones anteriores como DeepSeek-V3.2 y DeepSeek-R1 .
- Web y aplicación móvil: Otra forma de que los usuarios ocasionales interactúen con DeepSeek-V3.2 es a través de las plataformas oficiales de DeepSeek, como el sitio web oficial https://www.deepseek.com/ y la aplicación móvil de DeepSeek .
- Acceso a la API: La API de DeepSeek es compatible con OpenAI, lo que facilita su integración en aplicaciones o scripts.
- Implementación local: Este es un enfoque orientado a los desarrolladores. Puede descargar el modelo de la página de Hugging Face : https://huggingface.co/deepseek-ai/ DeepSeek-V3.2 y ejecutarlo en su propio hardware.
Preguntas y respuestas
¿Cuáles son las principales variantes de DeepSeek V3.2?
Las principales variantes de producción son DeepSeek-V3.2 (un modelo equilibrado, para el uso diario) y DeepSeek-V3.2-Speciale (un modelo de razonamiento de gama alta orientado a problemas muy difíciles de matemáticas, programación y de estilo de competición).
¿Cómo se compara el rendimiento de DeepSeek-V3.2 con el de GPT-5.1 o Gemini 3 Pro ?
DeepSeek-V3.2 destaca en matemáticas/programación y eficiencia, rivalizando con estos modelos de vanguardia a un coste menor.
¿ DeepSeek-V3.2 admite entradas multimodales como imágenes o vídeo?
Actualmente, DeepSeek-V3.2 solo admite entradas de texto. Está optimizado para el razonamiento sobre textos, código y documentos largos.
¿Cuál es la ventana de contexto de DeepSeek V3.2?
DeepSeek V3.2 hereda una ventana de contexto larga (alrededor de 128K tokens) habilitada por la atención dispersa, lo que le permite procesar cientos de páginas de texto en una sola indicación.
¿Qué tal se compara la V3.2 con las versiones anteriores de DeepSeek ?
V3.2 se basa en la generación V3.1«Terminus», pero se centra en la eficiencia y el comportamiento de razonamiento en lugar de en los saltos de referencia brutos, con el objetivo de lograr una calidad similar o mejor a un coste mucho menor gracias a la atención dispersa y a la actualización del entrenamiento y las alineaciones.
¿Qué es la Atención Dispersa DeepSeek (DSA) y por qué es importante?
DeepSeek Sparse Attention es un mecanismo de atención dispersa de grano fino que reduce el número de operaciones de atención por token, haciendo que el procesamiento de contextos largos sea mucho más económico, al tiempo que mantiene una calidad cercana a la de los modelos de atención densa anteriores.


