DeepSeek lanza V4: una IA que desafía a gigantes estadounidenses del sector

DeepSeek.
DeepSeek.090620+0000 -

PEKÍN. DeepSeek anunció este viernes su modelo de inteligencia artificial V4, que rivaliza con líderes estadounidenses en razonamiento y conocimiento, destacando su ventana de contexto de un millón de tokens y optimización para agencias. Esto ocurre en un contexto de intensa competencia tecnológica.

La empresa china DeepSeek presentó este viernes la versión preliminar y de código abierto de su nuevo modelo de inteligencia artificial (IA), el V4, del que asegura que ofrece un rendimiento comparable a rivales de EE.UU. en ámbitos como el razonamiento, el conocimiento general y las capacidades para agentes.

La compañía indicó en un comunicado publicado en su cuenta oficial en la red social WeChat que el sistema se divide en V4-Pro y V4-Flash, y afirmó que su versión de máximo razonamiento alcanza posiciones de liderazgo global.

La firma ya causó un considerable impacto en los mercados a comienzos de 2025 con su modelo R1, capaz de competir con sus pares estadounidenses a una fracción de su coste.

Ventana de contexto de hasta un millón de tokens

Según los datos técnicos publicados, el V4-Pro-Max supera a Claude-Opus-4.6-Max (Anthropic) y a GPT-5.4-xHigh (OpenAI) en pruebas de conocimiento, y se sitúa en niveles similares en tareas de ingeniería de ‘software’.

DeepSeek.
DeepSeek.

DeepSeek sostuvo asimismo que su nuevo modelo queda solo ligeramente por debajo de Gemini-3.1-Pro-High, de Google, en determinados apartados de razonamiento.

La firma señaló asimismo que V4 incorpora una ventana de contexto de hasta un millón de tokens -las unidades mínimas de texto que procesan los modelos lingüísticos-, una capacidad que atribuye a una nueva arquitectura de atención que, según su explicación, reduce las necesidades de cómputo y memoria frente a métodos tradicionales.

DeepSeek aseguró además que V4 ha sido optimizado para marcos de agentes como Claude Code, OpenClaw, OpenCode o CodeBuddy, con mejoras en tareas de codificación y de generación de documentos.

DeepSeek no detalló el ‘hardware’ empleado para entrenar el V4, tras la irrupción de su anterior modelo en 2025, que tuvo un fuerte impacto precisamente por su estrategia de entrenamiento.

Entrenado en 55 días

La empresa aseguró entonces que R1 había sido entrenado en 55 días con un presupuesto de 5,57 millones de dólares, muy por debajo de las cifras que manejan competidores estadounidenses, lo que alimentó el debate sobre si era posible desarrollar modelos avanzados con menos potencia de cálculo y menor coste.

DeepSeek.
DeepSeek.

En los últimos meses, la compañía había seguido ampliando su catálogo con nuevas versiones de R1 y con sistemas como DeepSeek-OCR o V3.2, este último también presentado por la empresa como comparable a rivales de OpenAI y Google en algunos apartados.

El anuncio de V4 se enmarca además en una fase de intensa competencia en el sector chino de la IA, donde firmas como Baidu, Alibaba, Tencent, ByteDance o MiniMax han acelerado el lanzamiento de modelos y agentes, en un contexto marcado por la rivalidad tecnológica con EE.UU., las restricciones al acceso chino a semiconductores avanzados y la apuesta oficial de Pekín por reforzar la autosuficiencia en este sector.