Amazon Web Services (AWS) y OpenAI anunciaron una asociación estratégica plurianual que habilita la ejecución y el escalamiento de las cargas centrales de inteligencia artificial de OpenAI sobre infraestructura de AWS. El acuerdo, valuado en US$ 38.000 millones y con una duración proyectada de siete años, contempla el acceso inmediato de OpenAI a cómputo especializado.
La compañía tendrá disponible cientos de miles de GPU NVIDIA de última generación, con la posibilidad de expansión a decenas de millones de CPU para responder rápidamente a cargas de trabajo agentivas y generativas. AWS proveerá servidores Amazon EC2 UltraServers, integrando chips GB200 y GB300 en una misma red, lo que permite baja latencia y eficiencia en sistemas interconectados.
La arquitectura está diseñada para soportar desde la inferencia sobre sistemas como ChatGPT hasta el entrenamiento de modelos de próxima generación, ofreciendo flexibilidad ante necesidades cambiantes. La totalidad de la capacidad prevista será implementada antes de finales de 2026, con opciones de expansión en 2027 y más adelante, según informó AWS.
Sam Altman, cofundador y director ejecutivo de OpenAI, expresó: “Escalar la IA de frontera requiere cómputo masivo y confiable. Nuestra asociación con AWS fortalece el amplio ecosistema de cómputo que impulsará esta próxima era y llevará la IA avanzada a todos”. Por su parte, Matt Garman, director ejecutivo de AWS, sostuvo: “A medida que OpenAI continúa empujando los límites de lo que es posible, la infraestructura de primera clase de AWS servirá como columna vertebral de sus ambiciones de IA”.
La colaboración se suma al trabajo conjunto previo, que incluye la disponibilidad de modelos fundacionales de OpenAI en Amazon Bedrock, facilitando su acceso a miles de clientes para flujos de trabajo agentivos, codificación y análisis científico.
“Escalar la IA de frontera requiere cómputo masivo y confiable”, dijo Sam Altman, cofundador y director ejecutivo de OpenAI.












