Converse com DeepSeek-V3.2 agora
DeepSeek-V3.2: Modelo de Linguagem de Grande Escala Focado no Raciocínio
O DeepSeek-V3.2 foi lançado pela DeepSeek a 1 de dezembro de 2025. É uma evolução do modelo anterior V3-Exp , lançado a 29 de setembro de 2025, e está disponível nas variantes principal e "Speciale" para uso em pesquisa e produção.
O DeepSeek-V3.2 é um modelo de linguagem grande (LLM) baseado em transformadores que utiliza uma arquitetura esparsa de "Mistura de Especialistas" e um mecanismo personalizado de " Atenção Esparsa DeepSeek " para reduzir o custo computacional, mantendo a alta qualidade. Destina-se a tarefas como programação, matemática, assistência à pesquisa e raciocínio em várias etapas, e foi concebido para potenciar agentes autónomos e fluxos de trabalho de chamada de ferramentas, em vez de apenas conversas simples.
Eficiência e Desempenho do DeepSeek-V3.2
O DeepSeek-V3.2 foi construído com base numa arquitetura de Mistura de Especialistas (MoE) com um total de 671 mil milhões de parâmetros, mas ativa apenas cerca de 37 mil milhões por token para maior eficiência. Este modelo é capaz de lidar com contextos longos (até 128K+ tokens) de forma mais económica do que os modelos de atenção densa, mantendo o desempenho de referência semelhante ou superior ao V3.
Os testes de desempenho e os relatórios descrevem-no como competitivo com os modelos de ponta (como o GPT-5.1 ou o Gemini 3 Pro) em tarefas que exigem raciocínio, especialmente nas suas variantes de maior capacidade de computação.
Variantes do DeepSeek-V3.2
- DeepSeek-V3.2: Versão principal otimizada para raciocínio de uso geral e implementação no dia a dia.
- DeepSeek-V3.2- Especial: Variante de computação intensiva para tarefas avançadas, com excelente desempenho em domínios especializados, mas com maior consumo de token ; temporariamente disponível apenas via API até meados de dezembro de 2025 para avaliação.
Comparação entre o DeepSeek-V3.2 e outros modelos avançados
O DeepSeek-V3.2 iguala ou supera modelos de ponta como o GPT-5.1 e o Gemini 3 Pro em parâmetros de referência importantes, particularmente em matemática, programação e tarefas de contexto longo. Aqui está um resumo da comparação entre estes modelos:
| Aspeto | DeepSeek-V3.2 | DeepSeek-V3.2- Especial | GPT-5.1 | Gemini 3.1 Pro |
| Desenvolvedor | DeepSeek AI (China) | DeepSeek AI (China) | OpenAI (EUA) | Google DeepMind (EUA) |
| Data de Lançamento | 1 de dezembro de 2025 | 1 de dezembro de 2025 (inicialmente apenas via API) | 12 de novembro de 2025 | 17 de novembro de 2025 |
| Parâmetros | 671B no total (MoE, ~37B ativos) | 671B no total (MoE, ~37B ativos) | Não divulgado (estimativa >1T) | Não divulgado (estimativa >1T) |
| Comprimento do Contexto | 128K-131K tokens | 128K-131K tokens (otimizado para raciocínios mais longos) | >128K tokens (provavelmente 1M+) | Mais de 1 milhão de tokens (até 2 milhões em alguns modos) |
| Principais Características | Raciocínio em primeiro lugar, DeepSeek Sparse Attention (DSA) para eficiência, uso integrado de ferramentas com raciocínio, fluxos de trabalho agentivos | Variante de raciocínio de alta computação, restrições de comprimento flexíveis para tarefas complexas, destaca-se em olimpíadas de matemática/programação | Raciocínio mais inteligente, melhor tom/personalidade, forte desempenho generalista, multimodal | Multimodalidade nativa, raciocínio/uso de ferramentas de ponta, domínio de contextos longos, planeamento criativo/estratégico |
| Acesso | Código aberto (MIT), Hugging Face, API, aplicação/web gratuita | Inicialmente, apenas via API (abertura em meados de dezembro de 2025) | API/subscrição (níveis pagos) | API/subscrição (níveis pagos) |
| AIME 2025 (Matemática) | 93,1% | 96,0% | 94,6% | 95,0% (100% com execução de código) |
| HMMT 2025 (Matemática) | 92,5% | 99,2% | Não aplicável | 97,5% |
| SWE-Bench Verificado (Codificação) | ~67-73% (varia consoante a avaliação) | 73,1% | ~62-70% (inferido) | 76,2% |
| Terminal-Bench 2.0 (Codificação Agente) | 46,4% | Mais alto (otimizado) | 35,2% | 54,2% |
Como Aceder ao DeepSeek-V3.2
Pode ser acedido através de canais gratuitos e pagos, incluindo interfaces web, aplicações móveis, APIs e transferências diretas para implementação local.
- HIX AI: Aqui oferecemos acesso instantâneo e fácil ao DeepSeek-V3.2, e às versões anteriores como o DeepSeek-V3 e o DeepSeek-R1 .
- Aplicação Web e Móvel: Outra forma de os utilizadores casuais interagirem com o DeepSeek-V3.2 é através das plataformas oficiais do DeepSeek, incluindo o site oficial https://www.deepseek.com/ e a aplicação móvel DeepSeek .
- Acesso à API: A API da DeepSeek é compatível com a OpenAI, o que facilita a sua integração em aplicações ou scripts.
- Implementação Local: Esta é uma abordagem focada no programador. Pode descarregar o modelo da página Hugging Face : DeepSeek-V3.2 e executá-lo no seu próprio hardware.
Perguntas Frequentes
Quais são as principais variantes do DeepSeek V3.2?
As principais variantes de produção são o DeepSeek-V3.2 (modelo equilibrado, para uso diário) e o DeepSeek-V3.2-Speciale (um modelo de raciocínio de gama superior, destinado a problemas muito difíceis de matemática, programação e estilo de competição).
Como é que o DeepSeek-V3.2 se compara ao GPT-5.1 ou ao Gemini 3 Pro em termos de desempenho?
O DeepSeek-V3.2 destaca-se em matemática/programação e eficiência, rivalizando com estes modelos de ponta a custos mais baixos.
O DeepSeek-V3.2 suporta entradas multimodais, como imagens ou vídeo?
Atualmente, o DeepSeek-V3.2 suporta apenas entradas de texto. Foi otimizado para raciocínio sobre textos/código/documentos longos.
Qual é a janela de contexto do DeepSeek V3.2?
O DeepSeek V3.2 herda uma janela de contexto longa (cerca de 128K tokens) ativada por atenção esparsa, permitindo-lhe processar centenas de páginas de texto num único pedido.
Como é que a V3.2 se compara às versões anteriores da DeepSeek ?
A V3.2 baseia-se na geração V3.1"Terminus", mas foca-se na eficiência e no comportamento de raciocínio, em vez de saltos brutos de referência, visando uma qualidade semelhante ou superior a um custo muito mais baixo, graças à atenção esparsa e ao treino/alinhamentos atualizados.
O que é a Atenção Esparsa DeepSeek (DSA) e por que é importante?
O DeepSeek Sparse Attention é um mecanismo de atenção esparsa de alta granularidade que reduz o número de operações de atenção por token, tornando o processamento de contextos longos muito mais económico, mantendo a qualidade próxima dos modelos de atenção densa anteriores.


