A DeepSeek (Android, iOS) apresentou nesta segunda-feira, 1, a versão 3.2 de seu grande modelo de linguagem (LLM) focado em mais racionalidade, construção de agentes com grandes volume de dados e com mais racionalidade.
Com duas opções, DeepSeek 3.2 e 3.2 Speciale (mais avançado), os modelos trazem pela primeira vez o DeepSeek Sparse Attention (DSA), uma forma de reduzir a complexidade computacional e o custo de inferência e treinamento de modelos e agentes de inteligência artificial. Ao mesmo tempo, o DSA busca preservar a capacidade de desempenho do modelo em cenários de contexto longo melhorados – leia-se documentos grandes ou grandes quantidades de instrução.
Os modelos abertos da companhia chinesa também se diferenciam por ter um novo método de treinamento de agentes. Esse método de treinamento é basicamente uma fábrica de criação de agentes com dados de treinamento em escala. De acordo com trecho do estudo da companhia:
“Essa metodologia facilita o pós-treinamento agêntico escalável, resultando em melhorias substanciais na generalização e na robustez do seguimento de instruções em ambientes complexos e interativos”.
Substituindo o 3.2-Exp, o novo modelo da DeepSeek recebe ainda uma estrutura de aprendizagem por reforço escalável para aumentar o poder computacional no pós-treino. Ou seja, o pensamento diretamente na ferramenta de uso. De acordo com a empresa, o 3.2 tem resultados comparáveis em escala e treino com GPT-5 da OpenAI e em proficiência de racionalidade do Gemini 3.0 do Google.
O DeepSeek 3.2 está disponível no app, site e API da empresa. Por sua vez, o 3.2 Speciale está apenas via API.
Imagem principal: Ilustração produzida por Mobile Time com IA
