Puntos clave
- GPT-5.4 es el nuevo estándar: Lanzado el March 5, 2026, combina la destreza en programación de GPT-5.3 Codex con un razonamiento más amplio, un contexto de 1M-tokens y un native computer use.
- Seis modelos cubren diferentes necesidades: Insignia (5.4), equilibrado (5.4 Mini), rápido (5.4 Nano), especialista en programación (5.3 Codex), uso diario (5.3 Instant) y heredado (5.2 Thinking).
- El precio varía 10 veces: Desde $0.30/MTok (GPT-5.3 Instant) hasta $2.50/MTok (GPT-5.4) en la entrada — elegir el modelo correcto impacta directamente en su factura.
- GPT-5.2 se retira el June 5: Migre ahora para evitar interrupciones.
La guía completa de la familia de modelos GPT-5 de OpenAI
La familia GPT-5 de OpenAI ha crecido hasta incluir seis modelos distintos, cada uno optimizado para un equilibrio diferente entre capacidad, velocidad y costo. Elegir el modelo equivocado significa pagar de más por tareas sencillas o no tener suficiente potencia para las complejas.
Esta guía cubre cada modelo, con precios, benchmarks y un marco de decisión claro.
La alineación completa (March 2026)
| Modelo | Función | Costo de entrada | Costo de salida | Contexto | Lanzamiento |
|---|---|---|---|---|---|
| GPT-5.4 | Razonamiento insignia + programación | $2.50/MTok | $10.00/MTok | 1.05M | Mar 5, 2026 |
| GPT-5.4 Mini | Equilibrado y rápido | Lower | Lower | Smaller | Mar 2026 |
| GPT-5.4 Nano | Mínima latencia | Lowest | Lowest | Smallest | Mar 2026 |
| GPT-5.3 Codex | Especialista en programación | $1.75/MTok | $7.00/MTok | 400K | Mar 3, 2026 |
| GPT-5.3 Instant | Tareas cotidianas | ~$0.30/MTok | ~$1.20/MTok | Standard | Mar 3, 2026 |
| GPT-5.2 Thinking | Insignia heredado | Higher | Higher | Smaller | Previous |
Fuentes: OpenAI API Models, FelloAI Comparison
GPT-5.4: El nuevo modelo insignia
GPT-5.4 es el modelo más capaz de OpenAI — el primero en fusionar el razonamiento de frontera con la programación de frontera en una sola arquitectura.
Qué lo hace especial
- Ventana de contexto de 1,050,000-tokens — Procese bases de código grandes y completas, conjuntos de documentación íntegros e historiales de conversación largos sin necesidad de fragmentación.
- Native computer use — Interactúe con aplicaciones de escritorio, navegadores y herramientas de sistema de forma programática.
- 57.7% en SWE-bench Pro — Rendimiento de vanguardia en benchmarks de programación.
- 83% en tareas de conocimiento GDPval — Igual o superior a los profesionales del sector.
- Eficiencia de tokens — Menos tokens de salida por tarea a pesar de un precio nominal más alto.
Cuándo usar GPT-5.4
- Tareas de programación complejas que requieren un razonamiento profundo.
- Flujos de trabajo autónomos de varios pasos (vía Codex CLI).
- Análisis de contextos largos (>400K tokens).
- Tareas que requieren capacidades de computer use.
- Cualquier proyecto nuevo donde necesite el mejor modelo disponible.
Precios
| Nivel | Entrada | Salida | Cached Input |
|---|---|---|---|
| Standard | $2.50/MTok | $10.00/MTok | $0.63/MTok |
GPT-5.4 Mini: La opción equilibrada
GPT-5.4 Mini hereda la arquitectura de GPT-5.4 con un costo y punto de latencia menores. Está diseñado para aplicaciones que necesitan un buen razonamiento sin pagar precios de modelo insignia.
Cuándo usar GPT-5.4 Mini
- API de producción donde el costo por solicitud es importante.
- Aplicaciones que necesitan un equilibrio entre velocidad y calidad.
- Backends de chatbots con complejidad moderada.
- Flujos de trabajo donde GPT-5.4 es excesivo pero GPT-5.3 Instant no es suficiente.
GPT-5.4 Nano: El demonio de la velocidad
GPT-5.4 Nano está optimizado para la latencia más baja posible. Sacrifica profundidad de razonamiento por velocidad pura.
Cuándo usar GPT-5.4 Nano
- Autocompletado y sugerencias en tiempo real.
- Endpoints de producción donde la latencia es crítica.
- Tareas de clasificación de alto volumen y baja complejidad.
- Aplicaciones móviles donde el tiempo de respuesta es fundamental.
GPT-5.3 Codex: El especialista en programación
GPT-5.3 Codex sigue siendo el mejor modelo para flujos de trabajo de programación sensibles al costo y con gran volumen de entrada. Funciona un 25% más rápido que GPT-5.2 Codex y cuesta menos por cada token de entrada que GPT-5.4.
Cuándo usar GPT-5.3 Codex
- Operaciones de programación por lotes intensivas en terminal.
- Flujos de trabajo que envían repetidamente contextos de repositorios grandes.
- Pipelines de programación con agentes optimizados en costo.
- Tareas donde la ventana de contexto de 400K es suficiente.
Cuándo actualizar a GPT-5.4
- Necesita más de 400K tokens de contexto.
- Necesita capacidades de computer use.
- Necesita trabajo de conocimiento más allá de la programación.
- El sobrecosto del 43% en la entrada vale la pena por las capacidades más amplias.
Precios
| Nivel | Entrada | Salida | Cached Input |
|---|---|---|---|
| Standard | $1.75/MTok | $7.00/MTok | $0.44/MTok |
GPT-5.3 Instant: El caballo de batalla cotidiano
GPT-5.3 Instant es el modelo GPT-5 más económico y la mejor opción para tareas cotidianas de alto volumen.
Fortalezas clave
- 26.8% menos alucinaciones que los modelos predecesores.
- Excelente en: Q&A, guías paso a paso, redacción técnica, traducción.
- Costo más bajo: ~$0.30/$1.20 por millón de tokens.
- Alto rendimiento: Optimizado para la velocidad.
Cuándo usar GPT-5.3 Instant
- Chatbots de atención al cliente.
- Generación de contenido a escala.
- Traducción y localización.
- Sistemas de Q&A simples.
- Cualquier aplicación de alto volumen donde el costo por solicitud sea lo más importante.
Precios
| Nivel | Entrada | Salida |
|---|---|---|
| Standard | ~$0.30/MTok | ~$1.20/MTok |
GPT-5.2 Thinking: Heredado (Retirada en June 2026)
GPT-5.2 fue el modelo insignia anterior. Introdujo una arquitectura de tres niveles (Instant, Thinking, and Pro) pero ha sido superado por GPT-5.4 en todos los benchmarks.
Cronograma de migración
- Ahora → June 5, 2026: GPT-5.2 Thinking disponible bajo Legacy Models
- June 5, 2026: GPT-5.2 Thinking retirado. Las llamadas a la API fallarán.
- Acción requerida: Actualice el parámetro
modeldegpt-5.2-thinkingagpt-5.4
# Before (will stop working June 5, 2026)
model="gpt-5.2-thinking"
# After
model="gpt-5.4"
Marco de decisión: Qué modelo usar
Por caso de uso
| Caso de uso | Modelo recomendado | Por qué |
|---|---|---|
| Programación compleja + razonamiento | GPT-5.4 | Mejor capacidad, 1M de contexto |
| Programación diaria (sensible al costo) | GPT-5.3 Codex | Menor costo de entrada, programación sólida |
| Chatbot general/Q&A | GPT-5.3 Instant | Más económico, rápido, bajas alucinaciones |
| API de producción (equilibrado) | GPT-5.4 Mini | Buena calidad, costo razonable |
| Autocompletado en tiempo real | GPT-5.4 Nano | Mínima latencia |
| Ciencia/investigación | GPT-5.4 | Razonamiento más profundo |
Por presupuesto
| Presupuesto mensual | Estrategia |
|---|---|
| <$50 | GPT-5.3 Instant para todo |
| $50-200 | GPT-5.3 Instant + GPT-5.3 Codex para programación |
| $200-1,000 | GPT-5.4 por defecto, GPT-5.3 Instant para tareas simples |
| $1,000+ | GPT-5.4 para todo, o enrutamiento híbrido |
El patrón de enrutador
El enfoque más rentable para aplicaciones en producción:
Request → Classify Complexity
├── Simple (60%) → GPT-5.3 Instant ($0.30/MTok)
├── Medium (25%) → GPT-5.4 Mini
├── Complex (10%) → GPT-5.4 ($2.50/MTok)
└── Coding (5%) → GPT-5.3 Codex ($1.75/MTok)
Este patrón puede reducir los costos entre un 70-80% en comparación con el uso de GPT-5.4 para todas las solicitudes, con un impacto mínimo en la calidad.
GPT-5 frente a la competencia
¿Cómo se compara la familia GPT-5 frente a Claude y Gemini?
| Modelo | Costo de entrada | SWE-bench | Contexto | Fortaleza |
|---|---|---|---|---|
| GPT-5.4 | $2.50/MTok | 57.7% (Pro) | 1.05M | Capacidad más amplia |
| Claude Opus 4.6 | $15/MTok | 80.8% (Verified) | 1M | Razonamiento más profundo |
| Claude Sonnet 4.6 | $3/MTok | 79.6% (Verified) | 1M | Razonamiento con mejor relación valor/precio |
| Gemini 3.1 Pro | Varies | Competitive | 2M | Ventana de contexto más grande |
Cada familia de modelos tiene sus fortalezas. GPT-5.4 ofrece el conjunto de capacidades más equilibrado; Claude lidera en benchmarks de programación; Gemini lidera en el tamaño de la ventana de contexto.
Más allá de la API: Construir sin código
Todos los modelos GPT-5 son herramientas para desarrolladores. Ya sea que use GPT-5.4 directamente o a través de Codex CLI, aún necesita conocimientos de programación para construir aplicaciones.
Si desea construir una aplicación sin escribir código, plataformas como ZBuild le permiten describir su aplicación en lenguaje natural y obtener un producto funcional completo — impulsado por modelos de AI como estos entre bastidores.
Resumen
La familia GPT-5 de OpenAI ofrece un modelo para cada caso de uso y presupuesto:
| Modelo | Resumen en una frase |
|---|---|
| GPT-5.4 | El mejor en general, úselo si no está seguro |
| GPT-5.4 Mini | Buen equilibrio entre velocidad y costo |
| GPT-5.4 Nano | El más rápido, para aplicaciones con latencia crítica |
| GPT-5.3 Codex | El más barato por token para programación intensiva |
| GPT-5.3 Instant | El más barato en general, para tareas cotidianas |
| GPT-5.2 | Se retira el June 5 — migre ahora |
La elección correcta depende de su carga de trabajo, presupuesto y requisitos de latencia. En caso de duda, comience con GPT-5.4 y optimice hacia modelos más económicos a medida que comprenda sus patrones de tráfico.
Publicado por el equipo de ZBuild. Construya aplicaciones sin programar en zbuild.io.
Fuentes
- OpenAI: Introducing GPT-5.4
- OpenAI: Introducing GPT-5.2
- OpenAI API Models
- OpenAI: Using GPT-5.4
- OpenAI Help Center: GPT-5.3 and GPT-5.4
- OpenAI Codex Models
- FelloAI: Ultimate ChatGPT Model Comparison
- Zapier: OpenAI Models Guide
- Nathan Lambert: GPT-5.4 Analysis