Claude en San Francisco
otografía del 25 de febrero de 2026 del exterior de la sede de la empresa Anthropic en San Francisco, CaliforniaEfe

Anthropic demanda a EE. UU. tras ser declarada "riesgo nacional" por su IA Claude

La empresa acusa represalias después de imponer límites al uso militar de su tecnología de inteligencia artificial

La empresa de inteligencia artificial Anthropic decidió llevar su disputa con el Gobierno de Estados Unidos a los tribunales. La compañía, creadora del asistente de IA Claude, presentó una demanda contra la Administración del presidente Donald Trump luego de que fuera catalogada como un “riesgo nacional” dentro de la cadena de suministro tecnológica del país.

La decisión gubernamental llegó después de que Anthropic se negara a entregar su tecnología de inteligencia artificial al Departamento de Guerra para “cualquier uso legal”, según detalla la querella presentada este lunes en un tribunal federal de California.

Un choque por el uso de la inteligencia artificial

Anthropic sostiene que fue fundada con un principio claro: que los sistemas de inteligencia artificial deben desarrollarse para maximizar los resultados positivos para la humanidad y operar de forma segura y responsable.

Según la empresa, el conflicto comenzó cuando el Pentágono buscó acceso más amplio a su tecnología. La compañía accedía a colaborar, pero imponía condiciones: garantías de que la IA no sería utilizada para espiar a ciudadanos estadounidenses ni para desarrollar armas completamente autónomas.

Ese desacuerdo terminó escalando. La semana pasada, el Gobierno estadounidense decidió vetar las contrataciones federales con Anthropic, una medida que la empresa considera una represalia directa por haber defendido esos límites.

Anthropic en San Francisco
Fotografía del 25 de febrero de 2026 del exterior de la sede de la empresa Anthropic en San Francisco, California.Efe

En su demanda, la tecnológica afirma que el Ejecutivo utilizó su poder para castigar a la compañía por expresar su posición sobre el uso responsable de la IA.

Inteligencia artificial

La inteligencia artificial no eliminará a los tontos: podría crear supertontos

Leer más

Una designación sin precedentes

La tensión alcanzó su punto más alto cuando la Administración de Trump decidió clasificar a Anthropic como “riesgo nacional”, una etiqueta que normalmente se reserva para empresas vinculadas a países considerados adversarios de Estados Unidos.

Para la compañía, la medida no solo es injustificada, sino también peligrosa para el ecosistema tecnológico.

“Estas acciones no tienen precedentes y son ilegales. La Constitución no permite que el Gobierno castigue a una empresa por su discurso”, señala la querella.

Tras la decisión presidencial, el secretario de Guerra, Pete Hegseth, envió una carta a la empresa justificando la medida como necesaria para proteger la seguridad nacional.

Riesgo económico y reputacional

Anthropic advierte que las consecuencias ya comenzaron a sentirse. El Gobierno federal estaría cancelando contratos con la empresa, mientras que algunos acuerdos con clientes privados también han quedado en duda.

Según la compañía, esto podría poner en riesgo cientos de millones de dólares en ingresos a corto plazo.

Además del impacto económico, la tecnológica sostiene que su reputación está siendo afectada y que el caso plantea una discusión más amplia sobre la libertad de expresión empresarial y el control gubernamental sobre la inteligencia artificial.

Por ahora, la empresa solicita al tribunal que anule la orden presidencial y declare que la designación como riesgo nacional es arbitraria y contraria a la Constitución de Estados Unidos.