La escena ocurrió el 19 de febrero pasado en Nueva Delhi, en la cumbre de inteligencia artificial convocada por el primer ministro Narendra Modi. Mientras el mandatario indio levantaba los brazos de los líderes tecnológicos en señal de unidad —Sundar Pichai de Google, entre otros—, Altman y Amodei, uno al lado del otro, eligieron alzar los puños por separado en lugar de entrelazar sus manos.  La imagen circuló por las redes sociales en minutos. No hacía falta traducción.
Hay en esa escena algo que va más allá del ego empresarial. Lo que Altman y Amodei representan es la fractura estructural de la inteligencia artificial como proyecto: la tensión irresuelta entre velocidad y prudencia, entre escala comercial y responsabilidad civilizatoria. Dos visiones del mundo que alguna vez convivieron bajo el mismo techo y que hoy compiten por definir qué es —y quién controla— la tecnología más transformadora desde la imprenta.
De colegas a rivales
La historia de esta enemistad es, ante todo, una historia de ideas. Amodei trabajó bajo las órdenes de Altman en OpenAI entre 2016 y 2020, donde llegó a ser vicepresidente de investigación. Durante ese período fue figura central en el desarrollo de GPT-2 y GPT-3, y también coinventó el método de “aprendizaje por refuerzo a partir de retroalimentación humana”, la técnica que permite entrenar modelos de lenguaje con criterio humano.  Era, en todos los sentidos, el arquitecto técnico de lo que se convertiría en ChatGPT.
Pero el vínculo se fue quebrando. Según la periodista Keach Hagey del Wall Street Journal, Amodei llegó a confiarles a amigos que se sentía “psicológicamente maltratado” por Altman. Altman, por su parte, decía a colegas que la tensión “lo estaba haciendo odiar su trabajo”.  En diciembre de 2020, la ruptura fue oficial. En 2021, Amodei fundó Anthropic junto a su hermana Daniela y un grupo de exempleados de OpenAI, con la convicción de que escalar modelos de lenguaje requería, al mismo tiempo, un marco robusto de seguridad. 
La carrera de los billones
Desde entonces, lo que comenzó como una divergencia filosófica se transformó en una de las competencias comerciales más vertiginosas de la historia empresarial. OpenAI captó financiamiento por 120.000 millones de dólares en febrero de 2026, con una valuación pre-money de 730.000 millones, mientras prepara un IPO apuntado a 2027 que podría valorarla en un billón de dólares.  Anthropic, por su parte, llegó a una valuación de entre 400.000 y 500.000 millones de dólares, con ingresos que saltaron de 9.000 millones al cierre de 2025 a más de 19.000 millones en marzo de 2026. 
La distancia se acorta a velocidad inusitada. Según proyecciones del instituto Epoch AI, Anthropic podría superar a OpenAI en ingresos anualizados hacia mediados de 2026, con una tasa de crecimiento que triplica la de su rival.  En el segmento corporativo, la ventaja ya cambió de manos: Anthropic captura hoy más del 73% del gasto de las empresas que adoptan herramientas de IA por primera vez, cuando hace apenas cuatro meses la relación era de paridad. 
El Pentágono como campo de batalla
La rivalidad alcanzó su punto de mayor tensión en marzo pasado, cuando el Departamento de Defensa de los Estados Unidos —rebautizado “Departamento de Guerra” bajo la administración Trump— quedó en el centro del conflicto. Anthropic, pese a tener un contrato preexistente de 200 millones de dólares con los militares, se negó a ampliar su cooperación a menos que el Departamento se comprometiera expresamente a no utilizar la tecnología de la compañía para vigilancia masiva de ciudadanos ni para armas autónomas.  Las negociaciones fracasaron. OpenAI firmó.
En un memo interno luego filtrado, Amodei calificó los mensajes públicos de OpenAI como “mentiras descaradas” y acusó a Altman de presentarse falsamente como “pacificador y negociador”.  Altman respondió en sentido contrario, describiendo —según mensajes internos revelados por Axios— que había intentado “salvar” a su rival durante las negociaciones, al tiempo que admitía que Amodei había pasado años intentando, a su criterio, destruir a OpenAI. Cuando se asentó el polvo, OpenAI había asegurado el contrato con el Pentágono, pero perdió la batalla de la percepción pública. 
Dos modelos para el futuro
Lo que esta disputa revela no es solo una rivalidad personal. Es el debate de fondo sobre qué rol deben cumplir las empresas de inteligencia artificial ante los Estados que buscan apropiarse de su potencial. Anthropic ha trazado dos líneas que dice no cruzará: vigilancia masiva doméstica y armas completamente autónomas. OpenAI, en cambio, eligió un camino de integración institucional con controles contractuales y supervisión operativa.  Ninguna de las dos posiciones es inocente. Ambas son coherentes con sus respectivos modelos de negocio.
Mientras tanto, los mercados secundarios ya eligieron un favorito provisorio. Según Bloomberg, en las últimas semanas un grupo de inversores institucionales intentó vender acciones de OpenAI por valor de 600 millones de dólares sin encontrar compradores suficientes, en tanto la demanda por acciones de Anthropic no deja de crecer. 
El precio de la hegemonía
La pregunta que sobrevuela todo este paisaje es si el modelo de negocio de ambas compañías es sostenible. OpenAI proyecta un gasto de entre 17.000 y 25.000 millones de dólares solo en infraestructura durante 2026; Anthropic estima desembolsos de 80.000 millones en servicios de computación en la nube hasta 2029.  Ambas acumulan pérdidas que superarán los 100.000 millones de dólares antes de alcanzar el punto de equilibrio, proyectado para 2028-2030 en el mejor escenario. Son, en la terminología de la vieja economía industrial, dos gigantes con los pies de barro que construyen el futuro mientras se endeudan para pagarlo.
Altman y Amodei comenzaron su historia colaborando en el mismo proyecto. Hoy compiten por definir nada menos que la arquitectura cognitiva del mundo. La foto de Nueva Delhi —dos puños cerrados, ninguna mano tendida— es quizás la metáfora más honesta de lo que está en juego.
¿Puede una industria tan concentrada, tan costosa y tan políticamente sensible producir un resultado que beneficie a todos, o estamos presenciando la gestación de un nuevo tipo de monopolio, esta vez sobre la inteligencia misma?











