Hace un año, Google DeepMind presentó AlphaEvolve, su agente de codificación potenciado con Gemini para diseñar algoritmos avanzados. Doce meses después, el balance que la propia DeepMind acaba de publicar muestra que la herramienta ya impacta áreas tan diversas como el diseño de TPUs, las redes eléctricas, la secuenciación genómica y los problemas abiertos en matemáticas.

¿Cómo funciona AlphaEvolve?

AlphaEvolve toma una función objetivo, propone variantes algorítmicas en lenguaje Python, las evalúa contra un benchmark y conserva las que mejoran el resultado. La iteración se repite hasta encontrar una solución superior a la mejor versión humana conocida. Los modelos que generan las propuestas son Gemini, y el costo del ciclo es órdenes de magnitud menor que un equipo humano dedicado al mismo problema.

Impacto social y de sostenibilidad

En genómica, AlphaEvolve fue aplicado a DeepConsensus, el modelo de Google Research que corrige errores en la secuenciación de ADN. El resultado: 30% menos errores en detección de variantes, lo que permite a PacBio analizar datos genéticos con mayor precisión y a menor costo.

"La solución que el equipo de Google descubrió usando AlphaEvolve abre tasas de precisión significativamente más altas para nuestros instrumentos. Para los investigadores, esta data de mayor calidad podría permitir descubrir mutaciones causantes de enfermedades antes ocultas", afirmó Aaron Wenger, Director Senior en PacBio.

En optimización de redes eléctricas, AlphaEvolve fue aplicado al problema de AC Optimal Power Flow. Logró que un Graph Neural Network entrenado pasara de encontrar soluciones factibles en el 14% de los casos al 88%, reduciendo significativamente la necesidad de costoso post-procesamiento.

En ciencias de la Tierra, automatizó la optimización de modelos de Earth AI, aumentando en 5% la precisión agregada para predecir riesgo de 20 categorías de desastres naturales como incendios, inundaciones y tornados.

¿Qué descubrimientos hizo en investigación pura?

En física cuántica, AlphaEvolve permitió correr simulaciones moleculares complejas en el procesador cuántico Willow, sugiriendo circuitos cuánticos con error 10× menor que los baselines optimizados convencionalmente.

Trabajando con matemáticos como Terence Tao, el sistema ayudó a resolver problemas de Erdős.

"Herramientas como AlphaEvolve están dando a los matemáticos nuevas capacidades muy útiles. Para problemas de optimización en particular, ahora podemos testear inecuaciones potenciales para contraejemplos rápidamente, o confirmar nuestras intuiciones sobre los extremizantes, lo que mejora enormemente la intuición y nos permite encontrar pruebas rigurosas con mayor agilidad", dijo Terence Tao, profesor de matemáticas en UCLA.

AlphaEvolve también mejoró cotas inferiores para el problema del viajante y los números de Ramsey.

¿Cómo cambia la infraestructura de IA de Google?

AlphaEvolve dejó de ser un piloto y pasó a ser componente regular del stack de Google. Se usa para optimizar el diseño de la próxima generación de TPUs y descubrió políticas de reemplazo de caché más eficientes, logrando en dos días lo que antes requería meses de trabajo humano concertado.

"AlphaEvolve comenzó a optimizar los niveles más bajos del hardware que potencia nuestros stacks de IA. Propuso un diseño de circuito tan contraintuitivo como eficiente que fue integrado directamente en el silicio de nuestros TPUs de próxima generación. Es el último ejemplo de cerebros de TPU ayudando a diseñar el cuerpo de los próximos TPUs", afirmó Jeff Dean, Chief Scientist de Google DeepMind y Google Research.

AlphaEvolve mejoró la eficiencia de Google Spanner refinando las heurísticas de compactación de su Log-Structured Merge-tree. Esa optimización redujo el write amplification (la razón entre datos escritos al storage y la solicitud original) en 20%. También aportó nuevas estrategias de optimización del compilador que redujeron la huella de almacenamiento del software en casi un 9%.

¿Qué empresas ya están usando AlphaEvolve?

Junto con Google Cloud, DeepMind está llevando la tecnología a clientes comerciales:

  • Klarna (servicios financieros): optimizó uno de sus mayores modelos transformer, duplicando la velocidad de entrenamiento y mejorando la calidad del modelo.
  • Substrate (semiconductores): aplicó AlphaEvolve a su framework de litografía computacional, logrando aceleraciones de varios órdenes de magnitud.
  • FM Logistic (logística): optimizó rutas en problemas tipo viajante, con 10,4% de ganancia sobre soluciones ya muy optimizadas y un ahorro de más de 15.000 km recorridos al año.
  • WPP (publicidad): refinó componentes de modelos de IA sobre data de campañas de alta dimensionalidad, con un 10% de mejora sobre optimizaciones manuales.
  • Schrödinger (ciencia de materiales): logró un speedup de aproximadamente en el entrenamiento e inferencia de Machine Learned Force Fields (MLFF).

"AlphaEvolve nos permite explorar espacios químicos más grandes de manera más rápida y eficiente que nunca. La inferencia más rápida de MLFF tiene un impacto real de negocio: acorta los ciclos de I+D en descubrimiento de fármacos, diseño de catalizadores y desarrollo de materiales", dijo Gabriel Marques, líder técnico de Machine Learning en Schrödinger.

¿Qué viene después?

DeepMind sostiene que el último año demuestra cómo AlphaEvolve se está convirtiendo en un sistema general y versátil. La línea editorial es clara: los próximos avances vendrán de algoritmos capaces de aprender, evolucionar y optimizarse a sí mismos. Para investigadores latinoamericanos, parte de la tecnología ya está disponible vía Google Cloud, lo que abre la puerta a optimización algorítmica industrial sin necesidad de un equipo de research dedicado a tiempo completo.