OpenAI y el Ejército de Estados Unidos
Fotografía de archivo que muestra un computador con el logo de la empresa OpenAI en su pantalla en Nueva York (EE.UU.).Efe

Ejército de Estados Unidos y OpenAI: acuerdo reaviva el debate sobre vigilancia

El CEO de OpenAI justificó el contrato con el Departamento de Guerra tras la polémica exclusión de Anthropic

El director ejecutivo de OpenAI, Sam Altman, salió a defender públicamente la decisión de su empresa de firmar un acuerdo con el Departamento de Guerra de Estados Unidos para permitir el uso de sus modelos de inteligencia artificial en redes militares clasificadas.

El contrato fue anunciado apenas horas después de que la administración estadounidense incluyera a Anthropic —desarrolladora del chatbot Claude— en una lista negra por considerarla un “riesgo para la cadena de suministro”, tras negarse a aceptar un acuerdo que no prohibiera explícitamente el uso de su IA en vigilancia masiva de ciudadanos o en armas autónomas.

“Fue apresurado, y la óptica no se ve bien”

Durante una sesión de preguntas y respuestas en la red social X, Altman reconoció que la negociación fue acelerada. “Definitivamente fue apresurado, y la óptica no se ve bien”, admitió. Sin embargo, sostuvo que el objetivo era evitar una escalada mayor entre el gobierno y la industria de la inteligencia artificial.

Según explicó, la tensión con Anthropic podía derivar en medidas más drásticas, como la nacionalización de un laboratorio de IA o presiones estatales directas sobre empresas privadas para entregar su tecnología bajo condiciones impuestas.

Si tenemos razón y esto conduce a una distensión entre el Departamento de Guerra y la industria, pareceremos genios. De lo contrario, seguiremos siendo considerados apresurados e imprudentes”, escribió.

Sam Altman
Sam Altman, CEO de OpenAI.GETTY IMAGES

Reacción de empleados y usuarios

La decisión generó resistencia dentro y fuera de la compañía. Algunos empleados de OpenAI firmaron una carta abierta respaldando la postura de Anthropic y cuestionando la designación de “riesgo” impuesta por el gobierno. Incluso un trabajador del área de alineación de IA criticó en redes sociales que el contrato permita el uso de la tecnología para “todos los fines legales”.

En paralelo, usuarios impulsaron campañas para abandonar ChatGPT y migrar a Claude. La controversia llegó hasta las calles de San Francisco, donde aparecieron grafitis frente a las oficinas de OpenAI criticando el acuerdo, mientras que en la sede de Anthropic predominaban mensajes de apoyo.

Las garantías que promete OpenAI

OpenAI sostiene que su contrato incluye referencias explícitas a leyes estadounidenses vigentes y a políticas del Departamento de Guerra que limitan la vigilancia de ciudadanos y el despliegue de armas autónomas.

Acuerdo global sobre IA

El mundo se da la mano para establecer límites antes de la 'superinteligencia'

Leer más

Katrina Mulligan, jefa de asociaciones de seguridad nacional de la compañía, explicó que además del lenguaje contractual se implementarán salvaguardas técnicas. Entre ellas, sistemas que clasifiquen las instrucciones dadas por usuarios militares y bloqueen cualquier solicitud que viole las “líneas rojas” de la empresa, como la vigilancia doméstica masiva.

No obstante, expertos legales advirtieron que el alcance real de estas restricciones es difícil de evaluar sin conocer el contrato completo, el cual no puede hacerse público por tratarse de un sistema clasificado.

El debate de fondo: ¿quién controla la IA?

La polémica reavivó una pregunta clave en la carrera por la inteligencia artificial avanzada: ¿deben las decisiones sobre su uso recaer en empresas tecnológicas o en gobiernos electos?

Altman sorprendió al señalar que, en teoría, no le incomodaría que el desarrollo de una inteligencia artificial general fuese un proyecto estatal, aunque reconoció que no es un escenario probable en el corto plazo.

“Me aterra un mundo donde las empresas de IA actúen como si tuvieran más poder que el gobierno”, escribió. Pero también añadió que le alarmaría un país donde la vigilancia doméstica masiva se normalice.

En un momento en que la IA avanza más rápido que los marcos regulatorios, el acuerdo entre OpenAI y el Pentágono se convierte en un símbolo de la tensión entre innovación, seguridad nacional y derechos civiles. Y, como admitió su propio CEO, la imagen pública de la industria está en juego.

Claves para entender la polémica

  1. La IA entra formalmente al ámbito militar clasificado. No es solo asesoría tecnológica: los modelos de OpenAI podrán usarse en redes militares sensibles.
  2. Se reabre el debate sobre vigilancia masiva. Aunque OpenAI asegura que hay límites, el concepto de “vigilancia masiva” no está claramente definido.
  3. Diferencia de enfoque con Anthropic. Anthropic exigía prohibiciones explícitas en el contrato. OpenAI optó por combinar referencias legales y barreras técnicas.
  4. Tensiones dentro de la industria. Hay empleados y usuarios que rechazan que la IA comercial se vincule con el sector defensa.
  5. Relación estratégica con el Gobierno. Altman sostiene que mantener buena relación con el Estado es clave para el futuro de la industria.

Para seguir leyendo EXPRESO sin restricciones, SUSCRÍBETE AQUÍ