← Volver a La Inteligencia
Aplicaciones Publicado el 21 de agosto de 2025

DeepSeek-V3.1: el modelo chino que supera a Claude 4 Opus con 68 veces menos costo y sin hacer ruido

DeepSeek-V3.1: el modelo chino que supera a Claude 4 Opus con 68 veces menos costo y sin hacer ruido

Un lanzamiento silencioso que esconde una bomba técnica

DeepSeek evitó ruedas de prensa, comunicados oficiales o incluso una model card detallada. En lugar de eso, DeepSeek-V3.1 [apareció sin aviso en plataformas como Hugging Face](https://huggingface.co/deepseek-ai/DeepSeek-V3.1), dejando que la comunidad descubriera sus capacidades por sí misma. Según los primeros análisis —como los del investigador Andrew Christianson—, el modelo no solo iguala el rendimiento de Claude 4 Opus en tareas complejas, sino que lo hace con un costo 68 veces menor. La clave está en su arquitectura Mixture-of-Experts (MoE), que optimiza recursos activando solo los "expertos" necesarios para cada consulta, reduciendo la demanda computacional sin sacrificar precisión.

[EMBED:image:Image Hugging Face

El salto es aún más notable si se compara con su predecesor, DeepSeek-V3 (671 mil millones de parámetros). La versión 3.1 no solo aumenta su contexto a 128,000 tokens —ideal para procesar documentos extensos o código—, sino que integra un modo "Think" (heredado de DeepSeek-R1) para razonamiento estructurado, y un modo "No-Think" para respuestas ágiles. Esta dualidad recuerda a la estrategia de OpenAI con GPT-5, pero con una diferencia crucial: DeepSeek no depende de servidores centralizados. Al publicar el modelo bajo licencia MIT (la más permisiva), cualquier desarrollador puede ejecutarlo localmente, incluso en hardware modesto, eludiendo restricciones de censura —un tema sensible en modelos chinos— si así lo desea.

¿El fin de DeepSeek-R1 o un movimiento estratégico contra OpenAI?

La desaparición de DeepSeek-R1 —el modelo especializado en razonamiento que catapultó a la empresa— de la plataforma oficial ha generado especulaciones. Algunos, como el periodista Poe Zhao, sugirieron que podría tratarse de un abandono del nicho de "razonamiento puro". Sin embargo, la realidad es más pragmática: V3.1 absorbe las capacidades de R1 con su modo "Think", unificando eficiencia y potencia en un solo producto. Esto no solo simplifica el ecosistema de DeepSeek, sino que posiciona a V3.1 como un competidor directo de los modelos "open weight" de OpenAI, como el reciente gpt-oss. La apuesta es clara: ofrecer un rendimiento superior a bajo costo, incluso en comparaciones con gigantes como Qwen (Alibaba) o Ernie (Baidu).

El impacto va más allá de lo técnico. Mientras Europa apuesta por modelos pequeños pero eficientes (como los de Mistral), y EE.UU. domina con soluciones cerradas y costosas, China demuestra que puede liderar en IA abierta sin depender de infraestructuras masivas. La pregunta ahora es si esta estrategia —basada en transparencia radical (código abierto) y optimización extrema— logrará seducir a desarrolladores globales, especialmente en mercados donde el costo y la privacidad son prioritarios. Con DeepSeek-V3.1, la guerra de los modelos abiertos acaba de subir de nivel.