La computación en la nube dejó de ser un fenómeno estrictamente terrestre. Bajo la conducción de Clint Crosier, general retirado de la Fuerza Aérea y de la Fuerza Espacial de Estados Unidos, Amazon Web Services (AWS) impulsa una estrategia para procesar datos en la propia órbita, cerca de los satélites y estaciones espaciales que los generan.
Buena parte de esa hoja de ruta fue detallada por Crosier en una entrevista con la publicación especializada Via Satellite, donde explicó cómo AWS busca “operacionalizar” la inteligencia espacial y convertir la nube en una pieza central de la infraestructura de defensa, meteorología y servicios comerciales ligados al espacio. En paralelo, Google Research publicó el documento “Towards a Future Space-Based, Highly Scalable AI Infrastructure System Design”, que plantea una visión de más largo plazo: trasladar al espacio una fracción relevante del cómputo de inteligencia artificial para sortear los límites energéticos de la Tierra.
De la nube terrestre a la nube orbital
El concepto que ordena la estrategia de AWS es la space-based cloud: una extensión del edge computing hacia el dominio espacial. En lugar de descargar todos los datos a la Tierra para procesarlos, la compañía propone instalar capacidad de cálculo en los satélites, en módulos acoplados o en la Estación Espacial Internacional, de modo de filtrar y analizar la información en el lugar de origen.
En el plano de defensa, Crosier recuerda que la inteligencia satelital funcionó durante años como un “tubo aislado”, con niveles de clasificación que impedían su plena integración con las fuerzas desplegadas. El objetivo de la nube espacial es revertir ese esquema: asegurar que el dato adecuado llegue a la unidad adecuada en el momento adecuado, mediante una infraestructura que conecta sensores orbitales, estaciones de tierra y aplicaciones operativas.
La misma lógica se traslada a servicios civiles. En el ámbito meteorológico, AWS colabora con NESDIS, brazo satelital de la NOAA, para procesar datos climáticos con modelos de inteligencia artificial en el “borde espacial”. Empresas como Iceye utilizan la nube de AWS para enriquecer datos de radar de apertura sintética con fuentes abiertas y producir productos como Flood Insights, orientados a la gestión de inundaciones y otros eventos extremos.
Inteligencia en órbita y gestión del tráfico espacial
La expansión de las constelaciones de observación y de comunicaciones hace evidente el límite del modelo tradicional. La observación de la Tierra genera decenas de petabytes diarios y la descarga completa de esos volúmenes presiona sobre el ancho de banda disponible.
AWS ensayó junto a la italiana D-Orbit una primera generación de “nube en órbita”. Un paquete de software de cómputo en el borde se instaló en un satélite para preprocesar la carga útil antes del enlace descendente. Según relató Crosier en Via Satellite, la misión cumplió la totalidad de sus objetivos utilizando alrededor de 42% menos capacidad de bajada, al transmitir solo la fracción de datos realmente útil. En un segundo experimento, equipos de AWS se integraron a la Estación Espacial Internacional para procesar en órbita experimentos como la secuenciación genómica, reduciendo de horas a minutos el ciclo entre medición y análisis.
La misma infraestructura sustenta servicios de gestión del tráfico espacial. Leolabs, operadora de una red global de radares, migró a AWS su sistema de cálculo de conjunciones. Rastrear unos 16.000 objetos y simular millones de trayectorias posibles para anticipar colisiones exige cómputo de alto rendimiento. Con infraestructura propia, una simulación podía insumir hasta ocho horas; en la nube, la respuesta llega en segundos y permite recomendar maniobras casi en tiempo real.
En este entorno, Crosier define la ciberseguridad como “prioridad cero”. El modelo de AWS combina cifrado de datos en tránsito y en reposo con más de doscientas herramientas de seguridad dentro de la nube, y soluciones específicas para detectar anomalías a bordo de los satélites.
Google y la “IA solar espacial”
Mientras AWS se concentra en servicios ya operativos, la propuesta de Google Research introduce un cambio de escala. El documento “Towards a Future Space-Based, Highly Scalable AI Infrastructure System Design” parte de un dato macroeconómico: la expansión de la inteligencia artificial generativa y multimodal está reconfigurando el mapa energético global. Los centros de datos consumen cerca del 3,5% de la electricidad mundial y podrían acercarse al 8% hacia 2030.
El trabajo, liderado por Blaise Agüera y Arcas, plantea que la demanda de cómputo seguirá creciendo, mientras las mejoras de eficiencia en los chips avanzan a un ritmo más lento. Los centros de datos terrestres enfrentan límites físicos de suelo, refrigeración y costo energético. Frente a ese escenario, Google Research propone un nuevo paradigma: trasladar parte de la infraestructura de cómputo al espacio para aprovechar energía solar directa.
El proyecto interno, denominado SunCatcher, imagina constelaciones de satélites equipados con unidades de procesamiento Tensor (Trillium TPUs) adaptadas a la radiación, alimentadas por paneles solares de alta eficiencia y conectadas entre sí mediante enlaces ópticos de espacio libre. Cada agrupación orbital funcionaría como un “módulo de centro de datos”, integrado en formaciones de 81 satélites con un radio aproximado de un kilómetro.
De los data centers terrestres a constelaciones de cómputo
La lógica modular de los hyperscale data centers se reproduce en órbita: redes escalables, autoorganizadas y redundantes que permiten ampliar capacidad sin interrumpir operaciones. Las constelaciones de SunCatcher añadirían nuevos satélites a medida que crece la demanda, del mismo modo en que hoy se suman racks a un centro de datos en la Tierra.
El documento estima que, hacia mediados de la década de 2030, el costo de lanzamiento a órbita baja podría descender a unos 200 dólares por kilogramo. Esa reducción, combinada con lanzadores reutilizables y paneles solares más eficientes, haría económicamente viable desplegar cientos de unidades. Ensayos de radiación sobre las Trillium TPUs indican una vida útil mínima de cinco años en entornos espaciales, un requisito clave para misiones de larga duración.
Las ventajas estratégicas que Google asigna a este modelo son cuatro: acceso a energía solar prácticamente ilimitada y sin emisiones; reducción de la vulnerabilidad geopolítica al sacar parte del cómputo de territorios específicos; resiliencia frente a apagones y desastres naturales; y posibilidad de acercar el procesamiento a distintas regiones del planeta mediante una malla orbital distribuida.
El documento reconoce, sin embargo, desafíos técnicos y regulatorios sustantivos: disipación térmica en el vacío, mantenimiento en órbita con robótica autónoma, ciberseguridad de constelaciones de alto valor, capacidad de enlace Tierra-espacio para flujos masivos de datos y falta de marcos legales sobre propiedad y jurisdicción de centros de datos orbitales.
Manufactura en órbita y demanda de cómputo: el caso Dcubed
El avance de proyectos industriales en órbita muestra que la nube espacial no será solo un soporte para datos, sino también para procesos productivos. En una nota reciente, Revista Mercado analizó el proyecto ARAQYS de la empresa alemana Dcubed, orientado a fabricar paneles solares directamente en el espacio. La iniciativa prevé demostrar hacia 2027 un panel de unos 2 kilowatts producido en órbita, montado sobre una plataforma satelital comercial lanzada en un vuelo compartido.
La fabricación en órbita apunta a superar las limitaciones de volumen y masa que imponen los lanzadores. En lugar de llevar a bordo estructuras plegadas, la misión produce los paneles donde se necesitan, con la posibilidad de escalar la superficie colectora de energía según la demanda. Para la futura economía de la órbita baja —que combinará observación, comunicaciones, logística y turismo—, la disponibilidad de generación eléctrica adaptable se perfila como un insumo central.
La conexión con los modelos de AWS y Google es directa. Un sistema como ARAQYS requiere simulaciones estructurales, monitoreo térmico y eléctrico, control de calidad en tiempo real y capacidad de ajustar parámetros de producción. La integración de cómputo en el satélite, gemelos digitales en tierra y herramientas de IA para detectar anomalías encaja con la arquitectura que impulsa AWS. Al mismo tiempo, la visión de SunCatcher sugiere un horizonte donde parte del control y la optimización de estas fábricas orbitales podría residir en constelaciones dedicadas de cómputo alimentadas por energía solar espacial.
Infraestructura invisible para la economía del espacio
Las estrategias de AWS y Google no compiten en un mismo estadio temporal. AWS despliega hoy una nube espacial con aplicaciones concretas en defensa, clima, tráfico orbital y experimentos científicos. Google Research, por su parte, plantea un escenario de mediano plazo en el que la expansión de la inteligencia artificial obliga a llevar centros de datos fuera del planeta para evitar una saturación energética terrestre.
Sin embargo, ambas miradas convergen en un punto: la próxima fase de la economía del espacio dependerá de una infraestructura de cómputo y energía que, en buena medida, será invisible. Gobiernos, empresas de telecomunicaciones, agroindustrias, aseguradoras o compañías energéticas no solo elegirán constelaciones para conectarse o tomar imágenes, sino también ecosistemas de nube e inteligencia artificial —terrestres y orbitales— para procesar, asegurar y explotar esos datos.
La entrevista a Clint Crosier en Via Satellite y el documento de Google Research funcionan como dos caras de una misma transición. De un lado, la nube espacial como herramienta operativa inmediata. Del otro, la “IA solar espacial” como respuesta de fondo al límite energético de la economía digital. Entre ambos extremos comienza a delinearse una nueva capa de infraestructura, donde los data centers orbitales y la manufactura en órbita, como la de Dcubed, pueden convertirse en piezas habituales de la cadena de valor tecnológica global.












