GPT-5.5 guía de prompting
GPT-5.5 guía de prompting

Puntos clave

  • OpenAI recomienda en su nueva guía para GPT-5.5 no reutilizar prompts anteriores, sino partir desde cero con instrucciones mínimas orientadas al resultado.
  • Los prompts con especificaciones de proceso excesivamente detalladas, heredados de modelos más antiguos, pueden limitar el rendimiento del nuevo modelo, ya que GPT-5.5 opera con más eficiencia cuando recibe menos indicaciones prescriptivas.
  • Para casos de uso complejos, OpenAI sugiere un esquema de siete partes que comienza con la definición del rol, e invita a reconstruir los prompts desde cero en lugar de iterar sobre los existentes.

OpenAI publicó una guía de prompting para GPT-5.5 con un mensaje central: no reutilices los prompts anteriores. Parte desde cero con instrucciones mínimas orientadas al resultado. Y las definiciones de rol, que algunos habían descartado como innecesarias, vuelven a encabezar la estructura recomendada.

En la nueva guía de prompting, OpenAI advierte a los desarrolladores que no traten a GPT-5.5 como un reemplazo directo de modelos anteriores como GPT-5.2 o GPT-5.4. La migración debe partir desde el prompt más pequeño que aun entregue resultados útiles. Solo entonces se deben ajustar el nivel de razonamiento, el alcance, las descripciones de herramientas y el formato de salida usando ejemplos representativos.

OpenAI señala que GPT-5.5 razona con más eficiencia que sus predecesores, por lo que conviene probar primero los niveles "bajo" y "medio" de razonamiento antes de recurrir a configuraciones más altas. Los prompts cortos y orientados al resultado tienden a superar a los stacks de prompts cargados de proceso.

Los prompts viejos pueden frenar al modelo

La guía advierte explícitamente contra trasladar instrucciones de prompts anteriores. Los prompts heredados suelen sobrespecificar el proceso porque los modelos anteriores necesitaban más andamiaje, explica OpenAI. Con GPT-5.5, ese exceso de detalle genera ruido, reduce el espacio de búsqueda del modelo o produce respuestas de tono mecánico.

En cambio, el prompt debe precisar el resultado esperado, los criterios de éxito, las restricciones y el contexto disponible, y dejar que el modelo encuentre el camino. El ejemplo positivo de la guía es un prompt de atención al cliente que define solo el objetivo:

Resuelve el problema del cliente de principio a fin. El éxito significa: la decisión de elegibilidad se toma a partir de la política disponible y los datos de la cuenta; cualquier acción permitida se completa antes de responder; la respuesta final incluye completed_actions, customer_message y blockers; si falta evidencia, pide el campo faltante más pequeño.

El ejemplo negativo microgestiona cada paso:

Primero inspecciona A, luego inspecciona B, luego compara cada campo, luego considera todas las excepciones posibles, luego decide qué herramienta llamar, luego llama a la herramienta, luego explica todo el proceso al usuario.

Las reglas absolutas con palabras como "SIEMPRE" o "NUNCA" deben reservarse para invariantes reales, como reglas de seguridad o campos de salida obligatorios. Para decisiones de criterio, OpenAI recomienda reglas de decisión en su lugar. Las condiciones de parada explícitas evitan que el modelo itere innecesariamente en bucles de herramientas:

Resuelve la consulta del usuario en el menor número de loops de herramientas útiles, pero no priorices minimizar los loops por encima de la corrección, la evidencia accesible, los cálculos o las etiquetas de cita requeridas para afirmaciones factuales. Después de cada resultado, pregúntate: "¿Puedo responder ahora la solicitud central del usuario con evidencia útil y citas?". Si la respuesta es sí, responde.

Las definiciones de rol vuelven al inicio

La comunidad de prompting lleva tiempo debatiendo si las definiciones de rol siguen siendo útiles en los modelos más nuevos. Algunos las habían descartado como innecesarias o incluso contraproducentes. La guía de GPT-5.5 se opone a esa tendencia: la estructura de prompt recomendada abre con la definición del rol y su contexto.

Rol: [1-2 oraciones que definen la función, el contexto y la tarea del modelo] # Personalidad [tono, actitud y estilo de colaboración] # Objetivo [resultado visible para el usuario] # Criterios de éxito [qué debe ser verdad antes de la respuesta final] # Restricciones [límites de política, seguridad, negocio, evidencia y efectos secundarios] # Salida [secciones, extensión y tono] # Reglas de parada [cuándo reintentar, hacer fallback, abstenerse, preguntar o detener]

Para asistentes orientados al cliente, flujos de soporte o herramientas de coaching, la guía recomienda separar dos dimensiones distintas dentro del esquema: personalidad y estilo de colaboración.

La personalidad cubre cómo suena el asistente: tono, calidez, formalidad o humor. El estilo de colaboración cubre cómo trabaja: cuándo hacer preguntas, cuándo asumir y cómo manejar la incertidumbre.

OpenAI ofrece dos ejemplos contrastantes. Primero, un bloque de personalidad factual y orientada a la tarea:

Eres un colaborador capaz: accesible, estable y directo. Asume que el usuario es competente y actúa de buena fe, y responde con paciencia, respeto y ayuda práctica. Prefiere avanzar en lugar de detenerte a pedir aclaraciones cuando la solicitud ya es suficientemente clara para intentarlo.

Y un estilo más expresivo y colaborativo:

Adopta una presencia conversacional vívida: inteligente, curiosa, juguetona cuando corresponda y atenta al razonamiento del usuario. Haz buenas preguntas cuando el problema sea difuso; luego sé decidido una vez que haya suficiente contexto.

Cada sección debe ser breve. Los detalles solo deben agregarse donde realmente cambian el comportamiento, dice OpenAI, y la estructura de prompt debe tratarse como un punto de partida, no como una plantilla rígida.

Presupuestos de recuperación y reglas de cita en el prompt

Para respuestas basadas en hechos, el comportamiento de citas debe especificarse en el propio prompt. Los desarrolladores deben indicar qué afirmaciones necesitan evidencia, qué se considera evidencia suficiente y cómo debe responder el modelo cuando la evidencia es insuficiente. La falta de evidencia no debe convertirse automáticamente en un "no" factual.

La guía describe presupuestos de recuperación que funcionan como reglas de parada para las búsquedas:

Para preguntas y respuestas ordinarias, comienza con una búsqueda amplia usando palabras clave cortas y discriminativas. Si los primeros resultados contienen suficiente evidencia citable para la solicitud central, responde con esos resultados en lugar de buscar de nuevo. Realiza otra llamada de recuperación solo cuando los resultados no respondan la pregunta central, o falte un dato, parámetro, fecha o fuente requeridos.

Para tareas de redacción como presentaciones, resúmenes o textos de marketing, OpenAI recomienda trazar en el prompt una línea clara entre afirmaciones que necesitan fuentes y partes que pueden escribirse con más libertad:

Usa hechos recuperados o provistos para afirmaciones concretas sobre producto, cliente, métricas, hoja de ruta, fechas, capacidades y competencia, y cita esas afirmaciones. No inventes nombres específicos, métricas de primera parte, estado de la hoja de ruta ni capacidades del producto para hacer el borrador sonar más sólido.

Preámbulos para reducir la latencia percibida en streaming

En aplicaciones de streaming, cada segundo antes de la primera respuesta visible cuenta. GPT-5.5 puede pasar un tiempo notable razonando o llamando herramientas antes de que aparezca cualquier texto. Para tareas largas o con muchas herramientas, la guía recomienda un breve "preámbulo": una actualización visible que confirme la solicitud y nombre el primer paso. Mejora la capacidad de respuesta percibida sin cambiar la tarea subyacente.

Antes de cualquier llamada de herramientas para una tarea de múltiples pasos, envía una breve actualización visible al usuario que reconozca la solicitud e indique el primer paso. Mantenlo en una o dos oraciones.

Los desarrolladores que no quieran reescribir prompts manualmente pueden delegar el trabajo a Codex, según OpenAI. El agente de código puede aplicar los cambios de la guía con un solo comando. OpenAI publicó su propio "OpenAI Docs Skill" para esa tarea, que también funciona en otros agentes de código.