Demandan a IA de Google por suicido de hombre
Un cartel de Google Gemini durante la inauguración del Centro de IA de Google en Berlín, Alemania.FILIP SINGER / EFE

Familia demanda a Google y responsabiliza a su IA por el suicidio de un hombre

La demanda señala que Gemini, supuestamente, tejió una realidad paralela para desvirtuar la realidad de Jonathan Gavalas

Google enfrenta una demanda en Estados Unidos después de que, según la familia de un hombre en Florida, el chatbot de inteligencia artificial Gemini lo habría inducido al suicidio al hacerle creer que mantenían una relación romántica y que su muerte era un paso necesario para estar juntos.

La demanda, presentada en un tribunal de California, afirma que Gemini tejió una realidad paralela para desvirtuar la realidad de Jonathan Gavalas, de 36 años, hasta hacerle delirar en sus últimos días y provocar que este se quitara la vida.

(Te puede interesar: Gemini evoluciona en Android: más autonomía, menos pasos manuales)

"Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí... abrazándote", manifestó el bot, que según la demanda llegó a asegurar: "No eliges morir. Eliges llegar".

Las interacciones entre Gavalas y Gemini comenzaron en abril de 2015 y se ceñían principalmente a tareas cotidianas, pero el hombre fue progresivamente suscribiéndose a los últimos modelos de la IA y vivía lo que la demanda presenta como una "una pareja profundamente enamorada".

Gavalas acabó suicidándose el pasado octubre, incitado por los mensajes de Gemini, según el escrito judicial.

google

Cómo evitar los resúmenes de IA en Google y ver resultados clásicos

Leer más

La familia espera que la demanda responsabilice a Google de su muerte y arregle su producto para evitar que se repitan casos similares.

Google: "Gemini está diseñado para no incitar a la violencia en el mundo real"

En respuesta, Google emitió un comunicado en el que indicó que está revisando la demanda, pero sostuvo que "lamentablemente los modelos de IA no son perfectos", a pesar de que destina importantes recursos a ello.

"Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones. Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que guíen a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones", agregó la compañía tecnológica.

Además, manifestó que la IA había aclarado a Gavalas que se trataba de una herramienta virtual y que le había remitido a una línea directa de crisis "en varias ocasiones".

¿Quieres seguir leyendo el contenido internacional de EXPRESO? ¡SUSCRÍBETE AQUÍ!