El procesamiento de imágenes con IA a bordo de satélites fue durante años un objetivo declarado de la industria de observación terrestre. Por fin se concretó. Planet Labs, con sede en California, publicó una imagen capturada por su satélite multispectral Pelican-4 que muestra el aeropuerto de Alice Springs, en Australia. Sobre el tarmac aparecen más de una docena de aviones, cada uno marcado con un cuadro verde, identificados por un modelo de IA que corre directamente a bordo del satélite.
Los ingenieros de Planet Labs trabajaron 18 meses para lograr clasificación autónoma confiable de objetos desde el espacio. La meta es poner la observación terrestre "con esteroides", habilitando tasking autónomo y compartir insights en tiempo real con usuarios en Tierra.
¿Por qué importa procesar la imagen arriba en vez de abajo?
"Toda la industria de teledetección es conocida por poner sensores exóticos en el espacio", explicó Kiruthika Devaraj, vicepresidenta de ingeniería de Planet Labs. "Tenemos muy buenos ojos arriba mirando todo lo que pasa. Pero recolectamos tanta data y hay que esperar seis a 12 horas para sacar la información, esencialmente estás mirando el pasado".
Planet Labs opera actualmente una constelación de varios cientos de CubeSats Dove y SuperDove, cada uno de apenas 30 centímetros de largo. Estas cámaras espaciales de bajo costo escanean toda la superficie terrestre varias veces al día con una resolución de unos 5 metros. La empresa también construye una flota de satélites más grandes llamados Pelicans, que imagen la superficie en detalle de 30 centímetros. El cuarto de estos, desplegado en órbita en 2025, corrió el algoritmo de reconocimiento de aviones.
En total, los satélites de Planet generan 30 terabytes de datos por día, equivalentes a 10.000 horas de video HD, que se descargan a tierra mediante decenas de radio estaciones repartidas en el mundo. Transferir esa data a la nube para procesarla con IA toma horas. La consecuencia práctica es que un foco de incendio detectado por satélite recién se identifica cuando ya es demasiado grande para contenerlo rápido.
¿Qué hace el Jetson Orin a bordo?
Los algoritmos de reconocimiento de imágenes desarrollados por el equipo de Devaraj analizan una imagen Pelican de 16.000 píxeles en medio segundo, usando GPUs onboard. Los resultados pueden estar en manos del usuario en minutos desde el momento en que se tomó la imagen.
Por ahora, sólo los satélites Pelican llevan procesadores capaces de IA: módulos Nvidia Jetson Orin, los mismos que se usan frecuentemente en drones autónomos. Devaraj anticipa que Planet va a sumar al constelación SuperDove un nuevo tipo de satélite llamado Owl, que ofrecerá revisitas diarias con resolución de hasta 1 metro y también vendrá equipado con procesadores Jetson capaces de detección IA.
¿Qué es la "inteligencia planetaria"?
La nueva flota habilitaría lo que Devaraj describe como "inteligencia planetaria". Operando como una red única de satélites inteligentes, los Owl monitorearían constantemente el planeta y marcarían problemas potenciales directamente a los Pelican de mayor resolución para que vayan a revisar, sin intervención humana.
"Queremos poner el cerebro, todo el cómputo, justo al lado del sensor", dijo Devaraj. "Para que el sistema de satélites que estamos construyendo se comporte como una red biológica que responde a estímulos en tiempo real".
A futuro, la empresa quiere migrar a procesadores Nvidia Jetson Thor, más potentes, y eventualmente correr modelos de lenguaje grandes (LLMs) directamente en el espacio.
"En cinco o diez años, cuando todos nos acostumbremos a aceptar lo que Gemini y Claude y otros LLM nos entregan, podemos entrenar algún LLM genérico sobre imágenes satelitales y simplemente obtener respuestas en texto sobre lo que ve", proyectó Devaraj. "Podrías recibir un mensaje de texto en tu teléfono que diga: hace tres minutos detecté este barco sin transmisor AIS, es un barco ilegal, y estas son las coordenadas exactas".
¿Qué impedía hacerlo antes?
La industria de observación terrestre venía hablando de procesamiento IA a bordo desde hace casi una década. Hasta hace poco, la tecnología no estaba lista para correr algoritmos lo suficientemente rápido y de manera confiable. "Empezamos con los primeros procesadores Nvidia Jetson, pero hasta la iteración Orin no tenían suficiente cómputo", explicó Devaraj.
Para correr análisis IA de imágenes a bordo, los algoritmos deben manejar datos crudos sin procesar, que no han sido suavizados ni corregidos, a diferencia de los datos que la IA procesa en tierra. "Hay muchísimas incertidumbres a nivel del satélite", dijo Devaraj. "El satélite se mueve, oscila, vibra. En tierra, el procesamiento tarda horas en corregir todo eso".
El equipo logró un 80% de fiabilidad de detección en el modelo IA a bordo. La próxima iteración del algoritmo apunta a superar el 95%. El servicio comercial de detección IA en tiempo real desde el espacio recién estará disponible para clientes en los próximos seis a nueve meses.
¿Y el proyecto Suncatcher con Google?
Planet también colabora con Google en el proyecto Suncatcher, que apunta a desplegar una constelación masiva de satélites de procesamiento de datos en órbita terrestre. La iniciativa se suma a varios planes recientes para mover infraestructura de cómputo terrestre fuera del planeta. Sus impulsores, entre los que también figuran SpaceX y Amazon, sostienen que en órbita los computadores intensivos en energía pueden funcionar con energía solar gratuita y enfriarse sin tensionar las reservas de agua. Los críticos cuestionan si una infraestructura de cómputo a esa escala puede lanzarse alguna vez de forma suficientemente barata como para competir con la tecnología en tierra.
Google y Planet planean volar dos satélites prototipo en 2027.




