Provisto por Ensemble

Hay una falla tectónica atravesando la IA empresarial, y no es la que recibe más atención. La conversación pública todavía sigue a los modelos fundacionales y los benchmarks —GPT versus Gemini, puntajes de razonamiento y ganancias marginales de capacidad—. Pero en la práctica, la ventaja más duradera es estructural: quién posee la capa operativa donde la inteligencia se aplica, se gobierna y se mejora. Un modelo trata a la IA como una utilidad bajo demanda; el otro la integra como una capa operativa —la combinación de software de operaciones, captura de datos, ciclos de retroalimentación (feedback loops) y gobernanza que se sitúa entre los modelos y el trabajo real— que se perfecciona con el uso.

Los proveedores de modelos como OpenAI y Anthropic venden inteligencia como servicio: tienes un problema, llamas a una API, obtienes una respuesta. Esa inteligencia es de propósito general, en gran medida sin estado (stateless), y solo está débilmente conectada con las operaciones diarias donde se toman las decisiones. Es altamente capaz y cada vez más intercambiable. La distinción que importa es si la inteligencia se reinicia en cada prompt o se acumula con el tiempo.

Las organizaciones tradicionales (incumbents), por el contrario, pueden tratar a la IA como una capa operativa: instrumentación a través de las operaciones, feedback loops a partir de decisiones humanas y gobernanza que convierte las tareas individuales en políticas reutilizables. En esa configuración, cada excepción, corrección y aprobación se convierte en una oportunidad para aprender, y la inteligencia puede mejorar a medida que la plataforma absorbe más del trabajo de la organización. Las organizaciones con mayor probabilidad de dar forma a la era de la IA empresarial son aquellas que pueden integrar la inteligencia directamente en las plataformas operativas e instrumentar dichas plataformas para que el trabajo genere señales útiles.

La narrativa predominante dice que las startups ágiles superarán en innovación a las empresas tradicionales construyendo plataformas nativas de IA desde cero. Si la IA es principalmente un problema de modelos, esa historia se sostiene. Pero en muchos dominios empresariales, la IA es un problema de sistemas —integraciones, permisos, evaluación y gestión del cambio— donde la ventaja se acumula para quien ya se encuentra dentro de operaciones de alto volumen y alto riesgo, y convierte esa posición en aprendizaje y automatización.

La inversión: la IA ejecuta, los humanos adjudican

Las organizaciones de servicios tradicionales se construyen sobre una arquitectura simple: los humanos usan software para realizar trabajo experto. Los operadores inician sesión en los sistemas, navegan por las operaciones, toman decisiones y procesan casos. La tecnología es el medio. El juicio humano es el producto.

Una plataforma nativa de IA invierte esto. Ingiere un problema, aplica el conocimiento del dominio acumulado, ejecuta de manera autónoma lo que puede con alta confianza y deriva subtareas específicas a expertos humanos cuando la situación exige un juicio que el sistema aún no puede proporcionar de manera confiable.

Pero invertir la interacción humano-IA no es solo un rediseño de interfaz de usuario (UI); requiere materia prima. Solo es posible cuando la plataforma se construye sobre una base de experiencia en el dominio, datos de comportamiento y conocimiento operativo acumulado durante años.

Los tres activos compuestos que las empresas tradicionales ya poseen

Las startups nativas de IA comienzan con una pizarra arquitectónica en blanco y pueden moverse rápidamente. Lo que no pueden fabricar fácilmente es la materia prima que hace que la IA de dominio sea defendible a escala:

  • Datos operativos propietarios
  • Una gran fuerza laboral de expertos en el dominio cuyas decisiones diarias generan señales de entrenamiento
  • Conocimiento tácito acumulado sobre cómo se realiza realmente el trabajo complejo

Las empresas de servicios ya tienen los tres. Pero estos ingredientes no son fosos defensivos (moats) por sí solos. Se convierten en una ventaja únicamente cuando una empresa puede convertir sistemáticamente operaciones desordenadas en señales listas para la IA y conocimiento institucional, para luego retroalimentar los resultados hacia las operaciones de modo que el sistema siga mejorando.

Codificando la experiencia en señales reutilizables

En la mayoría de las organizaciones de servicios, la experiencia es tácita y perecedera. Los mejores operadores saben cosas que no pueden articular fácilmente: heurísticas desarrolladas a lo largo de los años, intuiciones para casos límite (edge cases) y reconocimiento de patrones que operan por debajo del nivel del razonamiento consciente.

En Ensemble, la estrategia para abordar este desafío es la destilación de conocimiento (knowledge distillation). La conversión sistemática del juicio experto y las decisiones operativas en señales de entrenamiento legibles por máquinas.

En la gestión del ciclo de ingresos de atención médica, por ejemplo, los sistemas pueden ser alimentados con conocimiento de dominio explícito y luego profundizar su cobertura a través de la interacción diaria estructurada con los operadores. En la implementación de Ensemble, el sistema identifica brechas, formula preguntas dirigidas y contrasta las respuestas entre múltiples expertos para capturar tanto el consenso como los matices de los edge cases. Luego sintetiza estas entradas en una base de conocimiento viva que refleja el razonamiento situacional detrás del rendimiento a nivel experto.

Convirtiendo las decisiones en un volante de aprendizaje

Una vez que un sistema está lo suficientemente restringido como para ser confiable, la siguiente pregunta es cómo mejora sin esperar a las actualizaciones anuales de los modelos. Cada vez que un operador capacitado toma una decisión, genera más que una tarea completada. Genera un ejemplo etiquetado potencial: contexto emparejado con una acción experta (y a veces un resultado). A escala, a través de miles de operadores y millones de decisiones, ese flujo puede impulsar el aprendizaje supervisado (supervised learning), la evaluación y formas dirigidas de refuerzo, enseñando a los sistemas a comportarse más como expertos en condiciones reales.

Por ejemplo, si una organización procesa 50,000 casos a la semana y captura solo tres puntos de decisión de alta calidad por caso, eso equivale a 150,000 ejemplos etiquetados cada semana sin crear un programa separado de recopilación de datos.

Un diseño más avanzado de humano en el bucle (human-in-the-loop) coloca a los expertos dentro del proceso de decisión, por lo que los sistemas aprenden no solo cuál era la respuesta correcta, sino cómo se resuelve la ambigüedad. En la práctica, los humanos intervienen en los puntos de ramificación, seleccionando entre opciones generadas por IA, corrigiendo suposiciones y redirigiendo las operaciones. Cada intervención se convierte en una señal de entrenamiento de alto valor. Cuando la plataforma detecta un edge case o una desviación del proceso esperado, puede solicitar una justificación breve y estructurada, capturando factores de decisión sin requerir extensos registros de razonamiento de formato libre.

Construyendo hacia la amplificación de la experiencia

El objetivo es integrar permanentemente la experiencia acumulada de miles de expertos en el dominio —su conocimiento, decisiones y razonamiento— en una plataforma de IA que amplifique lo que cada operador puede lograr. Si se hace bien, esto produce una calidad de ejecución que ni los humanos ni la IA logran de forma independiente: mayor consistencia, rendimiento (throughput) mejorado y ganancias operativas medibles. Los operadores pueden enfocarse en el trabajo de mayor impacto, respaldados por una IA que ya ha completado el trabajo analítico base a través de miles de casos previos análogos.

La implicación más amplia para los líderes empresariales es directa. Las ventajas en IA no estarán determinadas únicamente por el acceso a modelos de propósito general. Provendrán de la capacidad de una organización para capturar, refinar y componer lo que sabe, sus datos, decisiones y juicio operativo, mientras construye los controles requeridos para entornos de alto riesgo. A medida que la IA pasa de la experimentación a la infraestructura, la ventaja más duradera puede pertenecer a las empresas que entienden el trabajo lo suficientemente bien como para instrumentarlo y pueden convertir esa comprensión en sistemas que mejoran con el uso.

Este contenido fue producido por Ensemble. No fue escrito por el equipo editorial de MIT Technology Review.

Deep Dive

Inteligencia artificial

Una conversación exclusiva con el científico jefe de OpenAI, Jakub Pachocki, sobre el nuevo gran desafío de su empresa y el futuro de la IA.

Exclusiva: El spinout de IA de Niantic está entrenando un nuevo modelo mundial usando 30 mil millones de imágenes de puntos de referencia urbanos obtenidas por crowdsourcing de los jugadores.

Según el AI Index 2026 de Stanford, la IA está corriendo a toda velocidad y estamos luchando por mantener el ritmo.

Axiom Math está regalando una nueva y poderosa herramienta de IA. Pero queda por ver si acelera la investigación tanto como espera la empresa.

Mantente conectado

Recibe las últimas actualizaciones de MIT Technology Review

Descubre ofertas especiales, historias destacadas, próximos eventos y más. Vía MIT Tech Review.