La división de inteligencia de amenazas de Google, Google Threat Intelligence Group (GTIG), publicó este martes un informe que confirma un hito incómodo para la industria de la ciberseguridad: el primer zero-day cuyo exploit fue escrito sustancialmente por un modelo de inteligencia artificial. El hallazgo se enmarca en un análisis más amplio sobre cómo el cibercrimen ya integró la IA generativa a su flujo de trabajo cotidiano.

¿Qué hace exactamente el zero-day?

El exploit, según GTIG, es un script en Python que evade la autenticación de dos factores en "una herramienta popular open source, basada en web, de administración de sistemas". GTIG no nombró el producto afectado para evitar exposición adicional. El ataque abusa de una falla lógica en el flujo de autorización, un error de diseño donde la intención del desarrollador no coincide con la implementación final.

El detalle técnico clave es por qué los modelos pudieron encontrar la falla cuando humanos no la habían visto. GTIG señala que los LLMs actuales "tienen problemas para navegar lógica empresarial compleja", pero son notablemente buenos en razonamiento contextual: leen el código fuente, identifican la intención del desarrollador y la contrastan con lo que el código realmente ejecuta. Esa brecha es donde aparecen los corner cases inesperados.

Malware que se modifica solo: CANFAIL y LONGSTREAM

Más allá del zero-day, el informe documenta familias de malware con capacidad de morphing en tiempo real. Los ejemplos citados son CANFAIL y LONGSTREAM, agentes que reescriben su propio código fuente y generan payloads de exploit de forma dinámica para evadir detección por firma.

Los bots también producen ofuscación en capas: agregan código de relleno a la lógica del ataque, insertan niveles de indirección que ocultan la intención real del programa y generan código señuelo destinado a confundir a los analistas humanos. Estas características hacen significativamente más difícil que el software de seguridad detecte o contenga la amenaza.

¿Cómo funciona PROMPTSPY, el backdoor Android que usa Gemini?

Quizás el caso más visual del informe es PROMPTSPY, un backdoor para Android que aprovecha el servicio en la nube de Google Gemini (no la variante on-device) para manipular el teléfono de la víctima. La técnica es elegante en su perversidad: el malware toma capturas de pantalla, identifica los elementos de UI presentados al usuario y simula interacciones en su nombre. Eso le permite capturar PIN y patrones de bloqueo, e interceptar clicks en el botón de "Desinstalar" antes de que la víctima logre eliminarlo.

El uso de un LLM cloud comercial para razonar sobre interfaces es un cambio importante respecto al malware tradicional, que dependía de plantillas estáticas y reglas codificadas a mano para reconocer apps específicas.

Phishing personalizado y campañas de desinformación

El informe también detalla el uso de IA para phishing dirigido: los atacantes piden a los bots que generen organigramas de empresas a partir de información pública (noticias, perfiles de LinkedIn, comunicados de prensa) y luego producen correos de phishing cargados con datos reales sobre el destinatario. GTIG observa que la información sobre departamentos financieros, de seguridad interna y de recursos humanos es la que genera mejor "cebo" para estos ataques.

En el plano político, GTIG documentó operaciones a gran escala en múltiples países usando IA para generación de fakes. Las tácticas predecibles, es decir imágenes y videos sintéticos, ya son sólo el inicio. Las operaciones más sofisticadas intercalan metraje real con contenido generado, o reemplazan apenas algunas palabras y expresiones faciales en video real para empujar un mensaje específico sin levantar sospechas.

¿Qué cambia para los equipos de seguridad?

Tres consecuencias inmediatas. Primero, los detectores basados en firma siguen perdiendo efectividad: si el agente reescribe su payload en cada ejecución, no hay hash estable que bloquear. Segundo, las APIs de LLMs comerciales (en este caso, Gemini) están siendo abusadas como infraestructura ofensiva, lo que sugiere que los proveedores deberán endurecer sus controles de uso. Tercero, los flujos de autorización empresariales son un campo fértil para auditorías asistidas por IA, tanto defensivas como ofensivas.

Para equipos en Chile y LatAm, la recomendación práctica es auditar los flujos 2FA de cualquier herramienta web open source de administración usada en producción y, donde sea factible, mover la autenticación a passkeys o tokens hardware. El costo de uso ofensivo de un LLM comercial ronda los USD 20 mensuales por cuenta, y eso reduce drásticamente la barrera de entrada para campañas dirigidas contra empresas chilenas medianas.