DeepSeek lança modelo de raciocínio gratuito que supera o GPT
A DeepSeek voltou a mexer no tabuleiro da IA com o anúncio de dois modelos: V3.2 e V3.2-Speciale. A promessa é ambiciosa: raciocínio complexo ao nível dos melhores modelos proprietários e, em simultâneo, uma integração de ferramentas que funciona como um “copiloto” autónomo.
Neste artigo encontras:
- Porque é que isto mexe com o estado da arte
- O truque técnico: atenção esparsa para contextos gigantes
- Raciocinar enquanto usa ferramentas: o que muda na prática
- Treino de agentes: quando o reforço pesa
- Transparência rara: pesos e relatório técnico à vista
- Disponibilidade e limitações: onde pisar com cuidado
- Para quem é — e para quê
- Conclusão: um desafio direto aos modelos proprietários
Para empresas e developers, isto traduz-se em agentes que não só pensam, como executam — desde pesquisar na web e usar uma calculadora até escrever e testar código — sem depender de prompts intermináveis.
Porque é que isto mexe com o estado da arte
A tecnológica de Hangzhou garante que o V3.2 empata o desempenho de modelos como o suposto GPT-5 em várias provas de raciocínio, enquanto o V3.2-Speciale rivaliza com o patamar do Gemini 3 Pro.
Mais do que marketing, há resultados competitivos: o Speciale arrebatou medalhas em competições internacionais de Matemática e Informática, incluindo as mais exigentes olimpíadas e finais globais. Mesmo com o habitual “sim, mas” dos benchmarks, a sinalização é clara — há um novo rival sério na arena do raciocínio simbólico e multimodal.
O truque técnico: atenção esparsa para contextos gigantes
O avanço não vem só de dados e GPU. A equipa introduziu uma arquitetura chamada DeepSeek Sparse Attention (DSA) para reduzir o custo de processar contextos longos. O modelo tem um total colossal de 671 mil milhões de parâmetros, mas apenas cerca de 37 mil milhões ficam ativos por token. Resultado: janelas de contexto de 128 mil tokens operam em produção com um corte de custo de inferência na ordem dos 50% face a abordagens densas anteriores.
Tecnicamente, isto significa que a rede decide, de forma seletiva, onde “prestar atenção”, evitando desperdiçar cálculo onde não há ganho. Para quem constrói aplicações com conversas extensas, documentos pesados ou logs intermináveis, a DSA pode ser a diferença entre um protótipo caro e um serviço viável.
Raciocinar enquanto usa ferramentas: o que muda na prática
A inovação mais curiosa está no casamento entre raciocínio interno e ferramentas externas. Em vez de alternar entre “pensar” e “agir”, o V3.2 é capaz de manter uma linha de raciocínio enquanto invoca ferramentas: procurar fontes, efetuar cálculos, escrever e executar trechos de código. Essa memória operacional persiste entre chamadas de ferramentas e reinicia apenas quando o utilizador volta a intervir.
Há dois modos de operação: com raciocínio visível para quem prefere transparência passo a passo, ou em modo conciso, quando bastam respostas diretas. Para cenários empresariais, isto abre portas a agentes que validam hipóteses com dados reais, verificam resultados e iteram sem microgestão do utilizador. É, potencialmente, uma melhoria substancial na fiabilidade das respostas.
Treino de agentes: quando o reforço pesa
Outro detalhe relevante é o investimento em aprendizagem por reforço. Mais de 10% do cómputo de pré-treino foi dedicado a este método, alimentado por mais de 1.800 ambientes sintéticos e 85 mil tarefas orientadas a competências de agente. Em termos práticos, é treinar o modelo não só para prever a próxima palavra, mas para decidir melhor a próxima ação — escolher a ferramenta certa, planear passos, verificar resultados.
Transparência rara: pesos e relatório técnico à vista
Num gesto pouco comum entre gigantes americanos, a DeepSeek disponibilizou os pesos completos e um relatório técnico do processo de treino. Mesmo empresas que falam em “código aberto” costumam manter peças críticas fechadas. A transparência da DeepSeek coloca pressão no mercado: é possível ser competitivo em raciocínio com modelos abertos, mantendo custos controlados.
Para a comunidade, este gesto é ouro: auditar, reproduzir, adaptar e implantar localmente torna-se mais simples. Para quem tem requisitos de privacidade, compliance e soberania de dados, a diferença é significativa.
Disponibilidade e limitações: onde pisar com cuidado
Ambos os modelos já estão disponíveis. O V3.2 chega à aplicação, à web e à API; o V3.2-Speciale, mais especializado, está acessível por API, para já. A adoção, porém, deve ser ponderada: benchmarks públicos nem sempre capturam comportamentos no mundo real, sobretudo em tarefas ambíguas, contextos ruidosos ou cadeias de ferramentas complexas. Um custo de inferência mais baixo perde relevância se a qualidade cair quando a tarefa sai do “laboratório”.
Recomenda-se um período de testes com casos representativos do seu negócio: pipelines de dados reais, prompts adversariais, validações automáticas e métricas de qualidade alinhadas com o impacto esperado (tempo, erro, custo, satisfação).
Para quem é — e para quê
- Equipas de produto que precisam de contextos longos: análise de contratos, relatórios extensos, código com múltiplos ficheiros.
- Developers a construir agentes práticos: validação com calculadora, scraping controlado, execução de testes e linting integrado.
- Organizações com requisitos de transparência e custo: pesos abertos e arquitetura eficiente facilitam auditoria e escalabilidade.
Se procura um modelo “faz-tudo” com raciocínio sólido, ferramentas integradas e janelas de contexto generosas, o DeepSeek V3.2 merece entrar na shortlist. O Speciale é a escolha para tarefas de competição matemática e problemas de programação de alta exigência, via API.
Conclusão: um desafio direto aos modelos proprietários
A DeepSeek está a montar um argumento convincente de que a próxima vaga de IA de raciocínio pode ser aberta, eficiente e útil em produção. Entre DSA, treino orientado a agentes e transparência técnica, o pacote V3.2 coloca pressão nos líderes estabelecidos. Falta provar, de forma sustentada, a constância do desempenho fora dos benchmarks. Mas a direção é promissora — e o mercado, sem dúvida, fica mais interessante.
Fonte: bloomberg





Sem Comentários! Seja o Primeiro.