Deepfakes: El vídeo también miente

Los audiovisuales manipulados llegan para alterar la realidad. Esta tecnología con inteligencia artificial sincroniza el sonido con los movimientos faciales y hasta la respiración.

09 may 2019 / 14:00

Santo Tomás, uno de los 12 apóstoles de Cristo, necesitó “ver para creer” cuando le dijeron que Jesús regresaría de entre los muertos. Y no fue el único... Todos alguna vez hemos pensado en que son nuestros ojos los únicos capaces de decirnos la verdad, pero ya ni eso.

Ante la sobreabundancia de noticias falsas o fake news en las redes sociales, el vídeo y el audio funcionaban como pruebas irrefutables. Esto por un siglo y solo hasta hoy. La tecnología ha decidido subir varios peldaños en el arte del engaño e introducir las mentiras profundas o deepfakes.

¿De qué se trata? De vídeos manipulados con ayuda de la inteligencia artificial (AI, por sus siglas en inglés) que intentan colar acciones o mentiras en cuerpos o bocas de otras personas, desde políticos hasta celebridades, y son difícilmente detectables.

Esta tendencia ha llegado a los discursos de políticos influyentes e incluso a las películas con contenido sexual. Entre los ejemplos más virales están los vídeos en el que Barack Obama llama “pendejo” a Donald Trump y en el que Katy Perry es protagonista de una porno. Ambos falsos y difícilmente cuestionables.

Deepfake es una fusión de los términos “aprendizaje profundo” y “falso”. En términos más humanos, un programa con inteligencia analiza y aprende todos los movimientos y expresiones que hace una persona; sus manías, sus movimientos faciales y corporales para recrearlos en vídeos exactos. Además, permite escribir un discurso e incluso clonar voces humanas o imitarlas.

Según Christian Tutiven, guayaquileño con un doctorado en Automática, Robótica y Visión, líder de una iniciativa sobre Inteligencia Artificial en la ciudad (AI Saturdays Guayaquil), para lograr una buena “obra” de este tipo se necesitan conocimientos de visión por computadora, programación, matemáticas y mucha predisposición, pues entrenar un modelo y mejorarlo puede tomar mucho tiempo. Sin embargo, advierte que para un trabajo básico, en internet existen tutoriales que podrían bastar.

¿A quién culpamos? Los principales sospechosos de la introducción de esta tecnología son los clásicos: Google, Amazon, Facebook... El primero está usando deepfake para “entender el futuro de la búsqueda y la respuesta”; el segundo para “personalizar las experiencias con Alexa (su asistente de voz)”; y el tercero para “ayudar a la compañía a entender el contenido falso”... Ver para creer.

Todo aún pinta muy nuevo, pero tiene el potencial de causar daño si cae en las manos equivocadas. Los principales focos serían: la política, el chantaje y las noticias.

Alec Baldwin vs. Donald trump

Baldwin acostumbra a imitar a Trump en el programa Saturday Night Live y una de esas imitaciones fue tomada por el youtuber ‘DerpFakes’ para entrenar una herramienta de intercambio de imágenes de AI para crear un compuesto de la cara de Trump, sobre el habla y los gestos de Baldwin. El resultado es convincente.

Las elecciones lidian con más mentiras

Considerando la incalculable cantidad de políticos que hablan en YouTube, incluidos los candidatos a la presidencia de la mayoría de los países del mundo, los vídeos se vuelven una mina de oro para cualquiera que considere usar la inteligencia artificial para entrometerse en las elecciones. Dan Coats, director de Inteligencia Nacional de EE. UU., advirtió en enero que las noticias y vídeos falsos serán las tácticas más utilizadas para manipular a los votantes en 2020. Hany Farid, experta en imágenes forenses en el Dartmouth College, trabaja en un software de “biometría suave” para adelantarse a los hechos y distinguir las versiones falsas. Como esta hay más iniciativas, pero la deepfake no deja de aprender.

El porno da paso a la extorsión

La industria del porno también ha adoptado una tecnología profunda. Martin Lindstrom, autor del libro Datos pequeños: Las pistas minúsculas que descubren tendencias enormes, dice que el nuevo objetivo del porno es utilizar la deepfake para lanzar “películas personalizadas”, en las que una persona pueda ver un vídeo que parece tener a alguien de su elección. Los vídeos podrían incluir desde una celebridad hasta un espectador. Según The Verge, Naughty America, ya tiene un servicio que personaliza sus clips utilizando AI. El problema es que poner la cara o el cuerpo de cualquier persona en casi cualquier escenario, podría utilizarse también para dañar reputaciones o chantajes.

Los fakes ponen en duda la historia

Por más de un siglo, el audio y el vídeo han sido sinónimos de verdad. Han grabado la historia, han informado y han dado forma a nuestra percepción de la realidad. Sin embargo, con la tecnología deepfake los espectadores empiezan a cuestionar hechos que sin duda sucedieron, como el aterrizaje lunar y hasta el 11-S, a pesar de las pruebas de vídeo. Entonces, si los hechos hacen que las personas crean que no pueden confiar en el vídeo, los problemas de la desinformación y las teorías de conspiración podrían empeorar. Si bien esta tecnología aún no es tan sofisticada como para simular eventos o conflictos históricos, preocupa la desconfianza que se está generando en los consumidores.

Este contenido es una producción de Gráficos Nacionales SA Granasa, publicada originalmente en el sitio web www.expreso.ec y protegida por derechos de autor. Su reproducción total o parcial queda prohibida.

TAGS:
A LA CARTA