O modelo de inteligência artificial DeepSeek V3.2, desenvolvido na China, alcançou desempenho comparável ao GPT-5 da OpenAI, mas com uma economia de 90% nos custos de treinamento. Essa inovação desafia a ideia de que modelos de ponta exigem investimentos massivos em computação. A DeepSeek, com sede em Hangzhou, lançou duas versões: a base e a DeepSeek-V3.2-Speciale, esta última destacando-se em competições internacionais de matemática e informática.
A DeepSeek atribui seu sucesso a inovações como a Atenção Parcial DeepSeek (DSA), que reduz a complexidade computacional sem comprometer o desempenho. O modelo base atingiu 93,1% de precisão em problemas matemáticos do AIME 2025 e uma classificação de 2386 no Codeforces, equiparando-se ao GPT-5. A variante Speciale superou ainda mais, com 96,0% no AIME 2025 e 99,2% no Torneio de Matemática Harvard-MIT.
O modelo oferece vantagens práticas para empresas, demonstrando eficiência em tarefas de engenharia de software e uso autônomo de ferramentas. A DeepSeek criou um pipeline de tarefas agenticas que gerou mais de 1.800 ambientes distintos, permitindo que o modelo generalizasse estratégias de raciocínio para novos cenários.
A comunidade de pesquisa em IA reagiu positivamente ao lançamento, com elogios à documentação técnica detalhada da DeepSeek. Susan Zhang, engenheira de pesquisa do Google DeepMind, destacou o trabalho da empresa na estabilização de modelos pós-treinamento. O anúncio gerou discussões significativas, especialmente antes da Conferência sobre Sistemas de Processamento de Informação Neural.
A DeepSeek reconhece desafios como a eficiência de tokens e a necessidade de expandir o conhecimento mundial do modelo. Planos futuros incluem aumentar os recursos computacionais de pré-treinamento e otimizar a eficiência das cadeias de raciocínio.
Fonte:https://www.artificialintelligence-news.com/news/deepseek-v3-2-matches-gpt-5-lower-training-costs/