ALERTA TECNOLÓGICA
Florida abre investigación penal sobre el papel del ChatGPT en tiroteo mortal
El fiscal general afirma que la IA de OpenAI dio "consejos prácticos" al atacante para maximizar víctimas en la universidad

James Uthmeier (c) hablando durante una rueda de prensa sobre la investigación de Open AI este martes, en Tallahassee (Estados Unidos).
LO QUE DEBES SABER
- Hito jurídico: Es el primer paso hacia la personería jurídica penal de los algoritmos en Occidente.
- Falla de seguridad: El atacante burló los filtros de seguridad de OpenAI para obtener planes de ataque detallados.
- Responsabilidad de plataforma: Se debate si la IA es una herramienta neutra o un editor de contenidos con deber de cuidado.
El estado de Florida anunció el martes 21 de abril de 2026, una investigación penal para determinar si la inteligencia artificial (IA) desempeñó algún papel en un mortal tiroteo en una universidad hace un año.
Se trata de la primera causa penal de este tipo en Estados Unidos.
Internacional
EE.UU. e Irán podrían tener nuevas discusiones en tres días, dice Trump, tras extender la tregua
Agencia AFP
Según elementos recabados por la fiscalía, el atacante intercambió mensajes con ChatGPT, el asistente de IA de la empresa OpenIA, antes de abrir fuego contra varias personas en el campus de la Universidad Estatal de Florida (FSU), que causó dos muertos y seis heridos en abril de 2025.
En una rueda de prensa, el fiscal general de Florida, James Uthmeier, explicó que ChatGPT había "proporcionado indicaciones significativas al tirador antes de que cometiera este crimen de odio".
El chatbot formuló sugerencias relativas al arma y a la munición adecuadas, así como al momento y los lugares propicios para alcanzar al mayor número posible de personas.
Si ChatGPT fuera una persona, estaría frente a cargos de asesinato"
La legislación de Florida considera cómplice al individuo que ayude, incite o asesore a otro a cometer un delito.
Consultada por la AFP, OpenAI sostuvo que "ChatGPT no es responsable de este terrible delito" y que la interfaz se limitó a producir "respuestas objetivas" a las peticiones del atacante, cuyo juicio debe comenzar en octubre.
¿Cómo ayudó ChatGPT al atacante según la fiscalía?
- Logística de armas: Sugerencias sobre el tipo de arma y munición más "adecuada".
- Táctica de ataque: Recomendaciones sobre el momento y lugares con mayor afluencia de personas.
- Estrategia mediática: Análisis sobre cómo atraer la atención de las cadenas de noticias nacionales.
- Planificación: El sospechoso describió su plan completo a la interfaz antes de ejecutarlo.
Destacó que OpenAI transmitió de forma espontánea datos referentes al agresor después de haber sido informado del tiroteo.
El atacante, identificado como Phoenix Ikner, usó el arma de servicio de su madre, quien llevaba 18 años como ayudante del sheriff local, según informaron las autoridades.
Ikner, que tenía 20 años y era estudiante de FSU en el momento del ataque, fue reducido a tiros por la policía y hospitalizado con "heridas graves", pero que no ponían en peligro su vida.
El sheriff del condado de Leon, Walt McNeil, informó entonces que el joven formaba parte de los programas de formación de la oficina del sheriff. "No nos sorprende que tuviera acceso a armas", añadió.
Los tiroteos múltiples son frecuentes en Estados Unidos, donde el derecho constitucional a portar armas prevalece sobre las demandas de normas más estrictas.
¿Chatbot criminal?
Desde la llegada de ChatGPT, en noviembre de 2022, rápidamente seguido por competidores como Gemini (Google) o Claude (Anthropic), esta nueva generación de interfaces de IA ha sido objeto de críticas recurrentes por su influencia presunta sobre ciertos usuarios.
Ciencia y Tecnología
Anthropic frena publicación de su IA Claude Mythos por ser muy "peligrosa"
Nadia Larco Bravo
Se han presentado demandas ante la justicia civil, en la mayoría de los casos por suicidios y no por homicidios.
En enero, Google y Character.AI llegaron a acuerdos amistosos con familias que acusaban a chatbots conversacionales de perjudicar a menores y de haber empujado a uno de ellos a quitarse la vida.
En marzo, la familia de una joven gravemente herida durante la matanza de Tumbler Ridge (oeste de Canadá) anunció que recurriría a la justicia civil contra OpenAI por negligencia.
Le reprocha a la empresa no haber alertado a la policía sobre inquietantes mensajes escritos en ChatGPT por la presunta autora del ataque.
OpenAI indicó haber instaurado un nuevo protocolo de seguridad que activaría una alerta sobre la base de una conversación similar.
"Consejos prácticos"
La imputación penal de una persona jurídica está prevista por el derecho estadounidense, pero Uthmeier, nombrado por el gobernador republicano Ron DeSantis, reconoció que "con la IA, nos adentramos en terreno desconocido".
Ciencia y Tecnología
Consejos médicos de la IA: la mitad de los respuestas de ChatGPT y otros chatbots son peligrosas
Nadia Larco Bravo
El fiscal general remitió a OpenAI una solicitud de documentos, en particular sobre su normativa interna y sus métodos de supervisión de los modelos de IA.
No porque se trate de un chatbot no debe haber responsabilidad penal"
Según Uthmeier, los intercambios analizados mostraron que el sospechoso "describió su plan" de ataque a ChatGPT y precisó que un procedimiento civil ya anunciado seguiría su curso.
En particular, preguntó a la interfaz cómo suscitar el interés de los medios nacionales por su acción, y "ChatGPT le proporcionó un análisis", precisó el fiscal.
"Hay una diferencia", dijo, "entre un proveedor de internet o un fabricante de dispositivos móviles y una aplicación que produce algo que se asemeja a consejos prácticos para cometer una matanza en un centro escolar".