El 24 de abril, DeepSeek soltó la preview de V4. Dos modelos open-source con licencia MIT, 1 millón de tokens de contexto, y benchmarks que se ponen a la altura de GPT-5.4 y Claude Opus 4.6. En Delbion lo estamos evaluando para nuestros agentes internos y ya tenemos algunas conclusiones claras.
Este artículo no es una reseña de prensa. Es lo que nos interesa a nosotros como empresa que implementa agentes IA: qué puede hacer, qué no, cuánto cuesta de verdad, y si merece la pena para una PYME.
1. Por qué DeepSeek V4 importa ahora
DeepSeek ya nos sorprendió con V3 en diciembre de 2024: un modelo entrenado por 5,6M$ que competía con GPT-4 entrenado por más de 100M$. V4 da un paso más en tres direcciones concretas:
- Contexto de 1 millón de tokens. Eso son unos 750.000 palabras. Un agente puede leer un contrato completo, todo el historial de un cliente o una base de código entera sin fragmentar nada.
- Open-source con licencia MIT. Lo descargas, lo modificas, lo ejecutas en tus servidores. No hay vendor lock-in.
- Coste de inferencia muy bajo. V4-Pro usa solo el 27% de los FLOPs de V3.2 para procesar 1M tokens de contexto. El KV cache se reduce un 90%.
La combinación de los tres es lo que lo hace interesante para PYMES. No es solo que sea potente. Es que puedes correrlo en tu propia infraestructura sin pagar las tarifas de OpenAI o Anthropic.
2. Los dos modelos: Pro y Flash
DeepSeek V4 llega en dos sabores:
| Modelo | Parámetros totales | Parámetros activos | Para qué |
|---|---|---|---|
| V4-Pro | 1,6 billones (1,6T) | 49.000 millones (49B) | Razonamiento complejo, agentes autónomos |
| V4-Flash | 284.000 millones (284B) | 13.000 millones (13B) | Respuestas rápidas, alto volumen, coste mínimo |
Ambos usan arquitectura Mixture-of-Experts (MoE). La diferencia clave: de los 1,6T parámetros de V4-Pro, solo 49B se activan por cada token. Es como tener un equipo enorme donde solo trabajan los especialistas que hacen falta para cada tarea concreta.
También soportan tres modos de razonamiento:
- Non-think: responde rápido, sin deliberar. Bueno para tareas rutinarias.
- Think High: analiza antes de responder. Más lento, más preciso. El modo que usamos para agentes.
- Think Max: razona al máximo. Para problemas donde la calidad importa más que el tiempo.
Para agentes IA, Think High es el equilibrio correcto
Non-think es demasiado superficial para decisiones de negocio. Think Max consume demasiados recursos para la mayoría de tareas operativas. Think High da resultados de calidad sin quemar costes.
3. 1 millón de tokens: qué cambia en la práctica
El contexto amplio es la mejora que más impacto tiene en agentes IA. Veamos casos concretos:
Atención al cliente. Un agente que antes solo veía los últimos 20 mensajes de un cliente ahora puede acceder a todo el historial. Detecta patrones, entiende el contexto de reclamaciones previas, y da respuestas coherentes con lo que pasó hace meses.
Documentación técnica. Un agente de soporte puede leer un manual completo (cientos de páginas) y responder preguntas específicas sin que nadie lo haya fragmentado antes en chunks.
Desarrollo de software. Con 1M tokens, un agente como Claude Code o Codex puede tener toda la base de código de un proyecto mediano en contexto. No necesita adivinar qué archivo tocar: lo sabe.
DeepSeek V4 logra esto con una arquitectura híbrida de atención (CSA + HCA). No es magia: es ingeniería. El resultado es que procesar 1M tokens cuesta un 73% menos que con V3.2.
4. Los números: cómo se compara con GPT-5.4 y Claude
Los benchmarks oficiales de DeepSeek colocan a V4-Pro como el mejor modelo open-source disponible. Estos son los datos:
| Benchmark | DeepSeek V4-Pro | GPT-5.4 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| LiveCodeBench (coding) | 93,5 | 92,1 | 91,8 | 89,4 |
| Codeforces Rating | 3.206 | 3.178 | 2.987 | 3.102 |
| GPQA Diamond (razonamiento) | 90,1 | 89,7 | 91,3 | 87,2 |
| SWE-Verified (agentes software) | 80,6 | 79,2 | 80,6 | 80,6 |
| BrowseComp (navegación web) | 83,4 | 81,7 | 82,1 | 79,8 |
| MCPAtlas Public (uso de herramientas) | 73,6 | 70,2 | 71,8 | 68,4 |
Nota sobre estos números
Los benchmarks de DeepSeek comparan contra las variantes de máximo esfuerzo de cada modelo (GPT-5.4 xHigh, Claude Opus 4.6 Max, Gemini 3.1 Pro High). En uso normal, las diferencias se reducen. Un benchmark no es un caso de uso real.
Donde V4-Pro gana claramente es en MCPAtlas Public (uso de herramientas). Eso es relevante porque los agentes IA pasan la mayor parte del tiempo llamando APIs, navegando webs y ejecutando acciones, no generando texto bonito.
5. Lo que cambia para los agentes IA
En Delbion usamos agentes todos los días. Esto es lo que V4 nos permite hacer que antes no podíamos (o era demasiado caro):
1. Agentes más baratos sin perder calidad. Un agente de atención al cliente que usa GPT-4o como backend cuesta alrededor de 0,50€ por conversación. Con V4-Flash, ese coste baja a menos de 0,05€. Para una empresa con 1.000 interacciones mensuales, la diferencia es de 450€ al mes.
2. Memoria sin infraestructura adicional. Con 1M tokens de contexto, la mayoría de tareas no necesitan un sistema RAG (memoria vectorial externa). El agente mantiene toda la información relevante dentro de la propia conversación. Menos piezas móviles, menos cosas que romper.
3. Ejecución local para datos sensibles. Esto es clave para nuestros clientes en salud y finanzas. Con licencia MIT, pueden ejecutar V4-Pro en sus propios servidores. Los datos del paciente o del cliente nunca salen de la infraestructura de la empresa.
4. Menos dependencia de un proveedor. Si mañana DeepSeek sube los precios o cambia la licencia, puedes migrar a otro modelo open-source sin reescribir tu stack. Con OpenAI o Anthropic, ese vendor lock-in es un riesgo real.
6. Lo que significa para una PYME
Si estás pensando en implementar agentes IA en tu empresa, V4 cambia algunas cosas importantes:
El coste ya no es la barrera. V4-Flash tiene solo 13B parámetros activos. Se puede ejecutar en hardware accesible. La API de DeepSeek cuesta una fracción de la de OpenAI. Si tu excusa para no automatizar era el precio, ya no vale.
No tienes que enviar tus datos a nadie. Para una clínica dental, una asesoría fiscal o una correduría de seguros, esto es importante. V4-Pro corre en tus servidores. Cumple con GDPR sin configuraciones extra.
Los agentes ya son lo suficientemente buenos. Un SWE-Verified de 80,6 significa que un agente puede resolver tareas de software complejas. Un BrowseComp de 83,4 significa que puede navegar por webs y extraer información. No es ciencia ficción. Es lo que ya hacen herramientas como Claude Code o Codex.
La barrera ahora es saber qué automatizar. El modelo existe, es barato y es bueno. Lo que falta en la mayoría de PYMES es saber qué procesos conviene automatizar, cómo integrar el agente en el flujo de trabajo existente, y cómo medir si realmente aporta valor.
Dato Delbion
En las auditorías de IA que hacemos, el problema nunca es tecnológico. El 90% de las empresas tienen los datos y la infraestructura necesaria. Lo que les falta es un plan: qué automatizar primero, cómo hacerlo y quién lo opera. Por eso tenemos formación bonificada por FUNDAE específica en agentes IA.
7. Costes y self-hosting
Para poner números concretos:
- V4-Pro (49B activos): necesita al menos una GPU A100 (80GB) para inferencia fluida. En cloud (AWS, GCP), eso son unos 2-3$/hora. Para uso intenso, compensa más comprar el hardware.
- V4-Flash (13B activos): corre en configuraciones de consumidor de alta gama. Una RTX 4090 (24GB) puede gestionarlo para uso moderado.
- API de DeepSeek: las tarifas publicadas son entre 10x y 50x más baratas que OpenAI para el mismo volumen de tokens.
El cálculo rápido: si hoy pagas 500€/mes en API de OpenAI para tus agentes, con DeepSeek V4 estarías pagando entre 10€ y 50€ por el mismo volumen. La diferencia no es marginal. Es un orden de magnitud.
8. Veredicto
DeepSeek V4 no es un modelo más. Es la prueba de que la IA de frontera puede ser abierta, barata y accesible para empresas de cualquier tamaño. Los benchmarks son sólidos, la licencia MIT elimina el vendor lock-in, y el coste de inferencia hace que los agentes IA sean viables económicamente para PYMES.
Lo que sigue siendo el cuello de botella no es la tecnología. Es la organización. Saber qué automatizar, cómo integrarlo y cómo formar al equipo para que saque provecho.
Si quieres explorar cómo los agentes IA pueden transformar tu empresa, te ofrecemos una auditoría gratuita de procesos automatizables. Sin compromiso.
Tu equipo necesita formacion en IA segura
El EU AI Act exige alfabetizacion IA para toda la plantilla desde agosto 2026. Nuestros cursos cubren compliance, agentes IA y gobernanza. FUNDAE puede subvencionar el 100% del coste.