Anthropic, la vigilancia estatal y el límite de lo “legal”

Dario Amodei, CEO de Anthropic, rechazó retirar dos salvaguardas para Claude —contra la vigilancia doméstica masiva y las armas totalmente autónomas— pese a amenazas de rescindir contratos, etiquetar a la firma como “riesgo de cadena de suministro” e invocar la Defense Production Act.

spot_img

El 26 de febrero de 2026, Dario Amodei convirtió una negociación técnica con el Departamento de Defensa de Estados Unidos —al que la conducción actual llama “Department of War”— en un caso político. En un comunicado público, el CEO de Anthropic afirmó que la empresa no aceptará cláusulas de “cualquier uso lícito” si implican levantar dos restricciones: el uso de IA para vigilancia masiva dentro del país y la provisión de capacidades que habiliten armas totalmente autónomas. 

La declaración llega en un momento de expansión acelerada de la IA hacia tareas de seguridad nacional, con contratos y despliegues en redes clasificadas, laboratorios nacionales y clientes militares. Anthropic sostiene que fue la primera compañía de “IA de frontera” en desplegar modelos en entornos clasificados del gobierno y en ofrecer modelos personalizados para clientes de seguridad nacional, y que Claude ya se usa para análisis de inteligencia, planificación operativa y ciberoperaciones. 

Un choque por la cláusula “any lawful use”

El punto de fricción es contractual y, al mismo tiempo, institucional: según Amodei, Defensa exige que proveedores de IA acepten “cualquier uso lícito” y retiren salvaguardas en los casos mencionados. Ante la negativa, habría amenazado con dar de baja a Anthropic de sus sistemas, considerarla “supply chain risk” e incluso invocar la Defense Production Act para forzar la remoción de restricciones. 

Publicidad

Reuters y AP reportaron el trasfondo económico de la disputa: un contrato de hasta US$ 200 millones y un ultimátum con fecha límite.  El caso también expone un giro cultural dentro de Defensa: el uso del rótulo “Department of War”, difundido por la conducción política, funciona como señal de prioridades y de una lectura más expansiva del campo de acción. 

La primera línea roja: vigilancia doméstica a escala

En su texto, Amodei distingue entre inteligencia exterior y contrainteligencia —que considera compatibles con misiones legales— y la vigilancia doméstica masiva, que define como incompatible con valores democráticos. El argumento central no es solo normativo, sino tecnológico: la IA haría posible integrar datos dispersos, “inocuos” por separado, y convertirlos en un retrato exhaustivo de la vida de cualquier persona, de modo automático y masivo. 

La referencia a la compra de datos por parte del Estado no es abstracta. Distintos análisis en Estados Unidos describen el “data broker loophole”: la posibilidad de adquirir datos sensibles (por ejemplo, ubicación) en el mercado comercial sin orden judicial, apoyándose en interpretaciones que eluden el estándar del mandato judicial como barrera contra abusos.  También existe documentación pública desclasificada sobre “commercially available information” en la comunidad de inteligencia y debates legislativos vinculados a reformas de privacidad y supervisión. 

La segunda línea roja: armas totalmente autónomas

La segunda restricción apunta a un debate que dejó de ser teórico. Amodei acepta la relevancia militar de sistemas parcialmente autónomos y señala que incluso armas totalmente autónomas podrían volverse críticas en el futuro. Pero sostiene que, “hoy”, los modelos de frontera no son lo suficientemente confiables para “sacar al humano del circuito” en la selección y el ataque de objetivos. A esa limitación agrega una objeción institucional: sin supervisión y “guardrails” adecuados, no se puede exigir a una máquina el juicio que ejercen tropas profesionales. 

En el plano público, la disputa quedó enmarcada como tensión entre innovación y control: para Defensa, el contratista no debería fijar límites “ad hoc” sobre operaciones; para Anthropic, la IA introduce riesgos cualitativamente distintos que requieren condiciones explícitas de uso. 

La paradoja de las amenazas y el mercado de proveedores

El comunicado subraya una contradicción: etiquetar a la empresa como “riesgo” y, a la vez, considerar su tecnología esencial para la seguridad nacional. En ese contraste se juega parte del poder de negociación. La designación de “supply chain risk” no es un gesto simbólico: puede bloquear vínculos con proveedores y contratistas del ecosistema de defensa, con efectos que exceden el contrato puntual. 

Anthropic, por su parte, intentó blindar dos mensajes. El primero: no busca interferir en decisiones militares —“el Departamento decide”— y no objetó operaciones específicas. El segundo: si el gobierno decide reemplazarla, colaborará en una transición sin interrupciones para misiones críticas. 

El trasfondo competitivo también pesa. La IA aplicada a defensa ya no es un experimento; es un mercado con múltiples oferentes y una demanda que combina urgencia operativa con presión política. En ese contexto, la estrategia de Anthropic es singular: se presenta como proveedor dispuesto a servir en entornos clasificados y, al mismo tiempo, como actor que intenta fijar un estándar mínimo de restricciones ex ante. 

Qué está en juego

El episodio instala una pregunta que excede a Anthropic: si el Estado impone “cualquier uso lícito” como condición general, el criterio queda atado a un marco legal que suele ir detrás de la tecnología. La empresa invoca ese rezago para justificar su negativa: lo “lícito” puede no ser “legítimo” en términos democráticos, y lo técnicamente posible puede no ser seguro. 

Para el sistema de defensa, el dilema es simétrico. Si la IA será infraestructura —como lo fueron antes la criptografía, los satélites o el GPS—, entonces la gobernanza de proveedores privados se vuelve un componente de soberanía operativa. Y si, además, el gobierno amenaza con herramientas extraordinarias como la Defense Production Act, el debate pasa a incluir los límites del poder estatal frente a tecnologías duales que no se fabrican en arsenales, sino en laboratorios de software. 

La discusión abierta por Amodei no resuelve el conflicto, pero lo ordena: vigilancia doméstica masiva y armas totalmente autónomas aparecen como la frontera explícita que una empresa intenta trazar antes de que la práctica y la urgencia la vuelvan irreversible.

Reacción política en Washington

La declaración escaló rápidamente al terreno político. En X, el secretario de Guerra Pete Hegseth (@SecWar) acusó a la compañía de haber dado “una clase magistral de arrogancia y traición” y la presentó como un ejemplo de “cómo no hacer negocios con el Gobierno de Estados Unidos o con el Pentágono”. En el mismo mensaje, remarcó que la postura oficial “no ha vacilado y no vacilará” y reclamó que el Departamento de Guerra cuente con acceso “pleno” y “sin restricciones” a herramientas de este tipo.

En paralelo, el abogado y analista Aaron Reichlin-Melnick (@ReichlinMelnick) interpretó el episodio como una señal del alcance de la disputa. Según escribió, el conflicto surge porque Anthropic rechazó adaptar su tecnología para facilitar “la vigilancia masiva de ciudadanos estadounidenses” y para permitir “el uso en armas letales totalmente autónomas”. Reichlin-Melnick añadió que la controversia obliga a preguntarse por qué la administración Trump buscaría esas atribuciones.

Este cruce expone un punto de fricción que se repite en la relación entre el Estado y los proveedores de IA: los gobiernos tienden a exigir mayores capacidades y menores restricciones operativas, mientras que las empresas intentan fijar límites de uso por razones reputacionales, regulatorias y de seguridad. El resultado es una negociación que ya no se limita a condiciones comerciales, sino que discute qué usos son aceptables y quién define esos estándares. 

spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img

CONTENIDO RELACIONADO