El precio de lista de GPT-5.5 se duplicó respecto a GPT-5.4. Los tokens de entrada cuestan ahora USD 5 por millón y los de salida USD 30 por millón, frente a los USD 2,50 y USD 15 anteriores. OpenAI argumenta que las respuestas más cortas del nuevo modelo deberían compensar parcialmente esa subida, pero un estudio del agregador OpenRouter sobre uso real durante abril de 2026 muestra que el costo final aumentó entre 49% y 92%, dependiendo del largo del input.
¿Cuánto subió de verdad la cuenta mensual?
OpenRouter cruzó los logs de uso real de sus clientes con el largo medio de las respuestas para cada modelo. El resultado es contraintuitivo: el alza es mayor para los prompts cortos, no para los largos.
| Largo del input (tokens) | USD/M tokens GPT-5.4 | USD/M tokens GPT-5.5 | Variación |
|---|---|---|---|
| Menos de 2.000 | 4,89 | 9,37 | +92% |
| 2.000 a 10.000 | 2,25 | 3,81 | +69% |
| 10.000 a 25.000 | 1,42 | 2,15 | +51% |
| 25.000 a 50.000 | 1,02 | 1,65 | +62% |
| 50.000 a 128.000 | 0,74 | 1,10 | +49% |
| Más de 128.000 | 0,71 | 1,31 | +85% |
Para inputs sobre los 10.000 tokens, las respuestas son entre 19% y 34% más cortas que con GPT-5.4, lo que alivia algo el golpe. En el rango de 2.000 a 10.000 tokens, sin embargo, las respuestas corren 52% más largas. Y para prompts cortos de menos de 2.000 tokens, el largo de la respuesta apenas cambia, lo que duplica casi linealmente el costo efectivo.
¿Por qué difiere de los análisis anteriores?
Artificial Analysis había estimado anteriormente un alza del 20%, pero ese estudio testeó benchmarks sintéticos, no tareas reales. La diferencia con la cifra de OpenRouter, que se basa en consumo de producción, es relevante para cualquier equipo que esté presupuestando una migración: el costo real depende de cuánto te demora el modelo en cerrar la respuesta, y eso varía con la naturaleza del prompt.
El movimiento es de la industria, no solo de OpenAI
Anthropic siguió un camino similar al subir Opus 4.7 entre 30% y 40%, en parte por el mayor consumo de tokens del propio modelo en sus respuestas extensas. Con ambas compañías encaminadas a salir a bolsa, los precios probablemente seguirán subiendo. La era de los modelos frontera con precio agresivo para conquistar mercado está dando paso a una fase donde los proveedores necesitan demostrar márgenes sostenibles a inversionistas públicos.
¿Qué significa para equipos en Chile y LatAm?
Una operación regional que consume un millón de tokens diarios de input cortos sobre GPT-5.5 paga ahora cerca de USD 281 al mes solo en entrada, frente a los USD 147 del modelo anterior. Para startups en Santiago u operaciones de mediano porte, ese delta puede empujar la decisión hacia modelos abiertos competitivos como Llama 4 Scout o Qwen 3 en endpoints como Groq o Together AI, donde el costo por millón de tokens sigue bajo los USD 1.
La conclusión operativa es directa: si tu pipeline usa prompts cortos y frecuentes, mover de GPT-5.4 a GPT-5.5 te puede subir la cuenta el doble. Vale la pena medir el ahorro de calidad antes de actualizar por defecto.




