Anthropic demanda a EE. UU. tras ser declarada "riesgo nacional" por su IA Claude
La empresa acusa represalias después de imponer límites al uso militar de su tecnología de inteligencia artificial

otografía del 25 de febrero de 2026 del exterior de la sede de la empresa Anthropic en San Francisco, California
La empresa de inteligencia artificial Anthropic decidió llevar su disputa con el Gobierno de Estados Unidos a los tribunales. La compañía, creadora del asistente de IA Claude, presentó una demanda contra la Administración del presidente Donald Trump luego de que fuera catalogada como un “riesgo nacional” dentro de la cadena de suministro tecnológica del país.
La decisión gubernamental llegó después de que Anthropic se negara a entregar su tecnología de inteligencia artificial al Departamento de Guerra para “cualquier uso legal”, según detalla la querella presentada este lunes en un tribunal federal de California.
Ciencia y Tecnología
Anthropic abre Claude Marketplace, una tienda de herramientas para su asistente de IA
pasante digital
Un choque por el uso de la inteligencia artificial
Anthropic sostiene que fue fundada con un principio claro: que los sistemas de inteligencia artificial deben desarrollarse para maximizar los resultados positivos para la humanidad y operar de forma segura y responsable.
Según la empresa, el conflicto comenzó cuando el Pentágono buscó acceso más amplio a su tecnología. La compañía accedía a colaborar, pero imponía condiciones: garantías de que la IA no sería utilizada para espiar a ciudadanos estadounidenses ni para desarrollar armas completamente autónomas.
Ciencia y Tecnología
La guerra también la decide un algoritmo: alertas por uso de IA en ataques a Irán
Giannella Espinoza
Ese desacuerdo terminó escalando. La semana pasada, el Gobierno estadounidense decidió vetar las contrataciones federales con Anthropic, una medida que la empresa considera una represalia directa por haber defendido esos límites.

Fotografía del 25 de febrero de 2026 del exterior de la sede de la empresa Anthropic en San Francisco, California.
En su demanda, la tecnológica afirma que el Ejecutivo utilizó su poder para castigar a la compañía por expresar su posición sobre el uso responsable de la IA.
Ciencia y Tecnología
La inteligencia artificial no eliminará a los tontos: podría crear supertontos
Giannella Espinoza
Una designación sin precedentes
La tensión alcanzó su punto más alto cuando la Administración de Trump decidió clasificar a Anthropic como “riesgo nacional”, una etiqueta que normalmente se reserva para empresas vinculadas a países considerados adversarios de Estados Unidos.
Para la compañía, la medida no solo es injustificada, sino también peligrosa para el ecosistema tecnológico.
“Estas acciones no tienen precedentes y son ilegales. La Constitución no permite que el Gobierno castigue a una empresa por su discurso”, señala la querella.
Tras la decisión presidencial, el secretario de Guerra, Pete Hegseth, envió una carta a la empresa justificando la medida como necesaria para proteger la seguridad nacional.
Ciencia y Tecnología
Teléfonos con inteligencia artificial en 2026: así es como quieren devolverte tiempo
Giannella Espinoza
Riesgo económico y reputacional
Anthropic advierte que las consecuencias ya comenzaron a sentirse. El Gobierno federal estaría cancelando contratos con la empresa, mientras que algunos acuerdos con clientes privados también han quedado en duda.
Según la compañía, esto podría poner en riesgo cientos de millones de dólares en ingresos a corto plazo.
Además del impacto económico, la tecnológica sostiene que su reputación está siendo afectada y que el caso plantea una discusión más amplia sobre la libertad de expresión empresarial y el control gubernamental sobre la inteligencia artificial.
Por ahora, la empresa solicita al tribunal que anule la orden presidencial y declare que la designación como riesgo nacional es arbitraria y contraria a la Constitución de Estados Unidos.