
La guerra también la decide un algoritmo: alertas por uso de IA en ataques a Irán
El uso de IA para identificar objetivos en ataques contra Irán abre debate global por errores algorítmicos en la guerra
En guerras anteriores, identificar un objetivo podía tomar días. Analistas revisaban imágenes satelitales, contrastaban información de inteligencia y luego los mandos militares tomaban decisiones. Hoy, ese proceso puede ocurrir en minutos.
Informes recientes indican que Estados Unidos e Israel habrían utilizado sistemas avanzados de inteligencia artificial para acelerar la identificación de objetivos y la ejecución de ataques durante la ofensiva contra Irán. La velocidad que permiten estas herramientas ha abierto un debate inquietante: qué ocurre cuando los algoritmos se equivocan en medio de un conflicto armado.
Ataques más rápidos que nunca
De acuerdo con reportes de medios estadounidenses, en las primeras 48 horas del operativo militar se atacaron más de mil objetivos en territorio iraní.
Entre ellos se incluyó el bombardeo que terminó con la muerte del líder supremo iraní, Alí Jameneí, una operación que en conflictos anteriores habría requerido varios días de planificación.
Según la revista británica AI, la inteligencia artificial está transformando todas las fases del proceso militar.
“Desde la identificación de objetivos y la obtención de aprobación legal hasta la ejecución de los ataques, la IA está acelerando la toma de decisiones en todos los niveles”, señala la publicación.

El papel del proyecto Maven
Uno de los sistemas más citados en estos informes es el Proyecto Maven, la iniciativa de “guerra algorítmica” del Pentágono que actualmente opera bajo la Agencia Nacional de Inteligencia Geoespacial.
Este sistema utiliza inteligencia artificial para analizar enormes volúmenes de imágenes captadas por drones y satélites. Su función es detectar patrones, identificar posibles objetivos y marcarlos automáticamente en mapas operativos.
Los mandos militares reciben así listas de blancos generadas por algoritmos, que posteriormente —según el Departamento de Defensa— deben ser revisadas por analistas humanos antes de autorizar un ataque.
Medios como The Washington Post aseguran que esta herramienta habría sido utilizada durante la ofensiva contra Irán, citando fuentes familiarizadas con el sistema.
Pero Maven no es una tecnología nueva. Ha sido probado anteriormente en conflictos en Siria, Irak, Yemen, el mar Rojo e incluso en la guerra de Ucrania.
La inteligencia artificial entra en el campo de batalla
Israel también ha reconocido el uso de sistemas de inteligencia artificial para analizar datos e identificar objetivos militares en conflictos recientes, particularmente en Gaza.
Para algunos expertos, el problema no es el uso de la tecnología en sí, sino la velocidad con la que permite tomar decisiones letales.
El relator especial de la ONU para el derecho a la vivienda, Balakrishnan Rajagopal, advirtió esta semana sobre “las nuevas formas en que se están librando las guerras”.
Según el funcionario, en la ofensiva contra Irán una plataforma de inteligencia artificial habría sido utilizada para seleccionar objetivos y coordenadas geográficas, lo que reduce drásticamente el tiempo entre el análisis de información y el ataque.
“Vimos algo similar en los primeros meses del conflicto en Gaza”, afirmó.

IA militar pese a restricciones políticas
La controversia se amplificó cuando la cadena CBS News reveló que el ejército estadounidense habría utilizado el modelo de inteligencia artificial Claude, desarrollado por la empresa Anthropic, para tareas de análisis de inteligencia durante la operación contra Irán.
El uso del sistema habría continuado incluso después de que el presidente Donald Trump ordenara vetar temporalmente el uso de tecnologías de IA en la administración federal horas antes del inicio del ataque.
Según el Wall Street Journal, estas herramientas habrían sido utilizadas principalmente para analizar información, identificar objetivos potenciales y simular escenarios de batalla.
El temor: errores que cuestan vidas
El mayor temor entre analistas y organismos internacionales es que errores en los algoritmos puedan provocar ataques contra objetivos civiles.
Ese debate se intensificó tras informes sobre un bombardeo a una escuela infantil en la ciudad iraní de Minab, en el sur del país, donde murieron alrededor de 180 personas en el primer día de la ofensiva.
Algunos expertos sospechan que el objetivo podría haber sido seleccionado tras un error en la correlación de datos procesados por inteligencia artificial.
El analista iraní Trita Parsi también denunció paralelismos entre los ataques en Irán y los bombardeos en Gaza.

Según Parsi, Israel estaría utilizando sistemas de IA “sin supervisión humana suficiente”, lo que habría provocado la identificación errónea de algunos objetivos.
Uno de los ejemplos que citó fue el Parque Policial de Teherán, aparentemente atacado tras ser identificado como una instalación policial.
En realidad, aseguró, se trata de una zona recreativa cuyo nombre contiene la palabra “policial”, lo que podría haber llevado al sistema a clasificarlo como un objetivo estatal.
Un nuevo dilema para la guerra moderna
El uso de inteligencia artificial en conflictos armados promete hacer más rápidas y precisas las operaciones militares.
Pero también plantea una pregunta incómoda para la guerra del siglo XXI: si los algoritmos ayudan a decidir quién vive y quién muere, ¿quién es responsable cuando se equivocan?
Para seguir leyendo EXPRESO sin restricciones, SUSCRÍBETE AQUÍ