La salida abrió una fisura pública en OpenAI. La ejecutiva Caitlin Kalinowski, responsable de robótica y hardware de consumo, presentó su renuncia. Según Reuters, dejó la empresa después de que OpenAI anunciara un acuerdo para desplegar sus modelos de inteligencia artificial en entornos clasificados del Pentágono. 
El caso expone una tensión que recorre a toda la industria: hasta dónde puede llegar una empresa de IA cuando entra en el terreno de la defensa. OpenAI defendió el convenio y sostuvo que incluyó más resguardos que los acuerdos previos del sector. Pero la renuncia mostró que, dentro de la propia compañía, no todos compartían esa evaluación. 
Qué objetó la ejecutiva
Kalinowski sostuvo que la decisión se tomó sin suficiente deliberación interna. En su planteo público advirtió sobre dos riesgos: el uso de IA en vigilancia sin revisión judicial y la eventual participación de estos sistemas en aplicaciones letales autónomas sin supervisión humana adecuada. 
La objeción no fue a toda relación entre IA y seguridad nacional. El punto central fue el modo en que se aprobó el acuerdo y la ausencia, a su juicio, de salvaguardas explícitas desde el inicio. Ese matiz es relevante: el debate ya no gira solo en torno de si las tecnológicas deben trabajar con gobiernos, sino bajo qué condiciones, con qué límites y con qué mecanismos de control. 
Qué dice OpenAI
OpenAI publicó una explicación oficial sobre el convenio con el Departamento de Defensa. Allí afirmó que mantiene tres líneas rojas: no permitir vigilancia doméstica masiva sobre ciudadanos estadounidenses, no habilitar armas autónomas letales y no participar en decisiones automatizadas de alto riesgo sin resguardos adicionales. También señaló que cualquier uso por parte de agencias de inteligencia requeriría nuevos acuerdos. 
La empresa agregó que el Pentágono prevé conformar un grupo de trabajo con laboratorios de IA, proveedores de nube y funcionarios de defensa y política pública. OpenAI sostuvo que ese ámbito servirá para discutir capacidades emergentes, privacidad y desafíos de seguridad nacional. En los hechos, la compañía buscó presentar el acuerdo como un marco regulado y no como una cesión abierta de tecnología. 
Un giro con costo político
La controversia llegó en un momento sensible para OpenAI. El convenio con el gobierno estadounidense refuerza la idea de que los grandes desarrolladores de IA ya son actores de infraestructura estratégica. Eso cambia su posición en el mercado y también su perfil político. Ya no se los evalúa solo por sus productos o por su capacidad comercial, sino por el tipo de Estado al que deciden abastecer y por las condiciones que aceptan negociar. Esta lectura surge del contenido del acuerdo oficial y de la renuncia reportada por Reuters. 
En ese marco, la salida de Kalinowski tiene un peso mayor que el de un desacuerdo corporativo. Pone en evidencia que la gobernanza de la IA militar no es un debate externo impuesto por reguladores o activistas, sino una discusión que ya atraviesa a las empresas desde adentro. 
Qué deja este episodio
El episodio deja dos conclusiones. La primera: OpenAI decidió avanzar hacia una relación más directa con el aparato de defensa de Estados Unidos. La segunda: ese movimiento tiene costos internos, reputacionales y políticos, incluso cuando la empresa intenta rodearlo de límites contractuales. 
Para el sector tecnológico, la señal es clara. La discusión sobre inteligencia artificial ya no se reduce a productividad, creatividad o automatización. Empieza a definirse también en el terreno de la soberanía, la guerra y el control institucional. Y en ese terreno, cada contrato puede abrir una grieta. 












