Ciencia y Tecnologia

Deepfakes, una amenaza aún sin antídoto

No paran los videos falsos en los que se involucran a personajes públicos o famosos en actos o discursos que no son reales. Este año serán más frecuentes.

CAPTURA
Si no se encuentra un remedio, en los próximos 10 años, veremos a familiares y amigos como protagonistas.Internet

Esos videos que se vuelven virales en minutos y que ponen el rostro y hasta la voz de personas dentro de situaciones que no son reales, esos son los deepfakes.

El problema es que están aumentando en calidad a un ritmo impresionante y cada día será más difícil diferenciar entre lo falso y lo real.

¿Cómo frenarlo? 

Es necesario crear algo que actúe como antídoto y que sea capaz de detectarlos sin depender solo de la intuición humana.

Jake Moore, especialista en seguridad cibernética y Análisis Forense Digital en ESET

Cuando vemos a Barack Obama pronunciar un discurso de Donald Trump o Bill Hader siendo transformado sin esfuerzo en Tom Cruise, es cuando realmente nos damos cuenta de que podemos tener ante nuestras narices un problema con graves consecuencias en la sociedad.

Tendencias 2020

4 tendencias tecnológicas que marcarán el 2020

Leer más

¿Qué impacto podría tener? 

Ya vimos (hasta en Netflix) el escándalo de Cambridge Analytica en el que los científicos de datos fueron capaces de transformar encuestas y datos de gráficos sociales de Facebook en un arma de mensajería política en Estados Unidos... Los deepfakes podrían acelerar el proceso de influir en el público y habremos llegado al momento en el que no confiemos en lo que veamos y escuchemos.

Esta tecnología ya se utiliza para dañar a las figuras públicas haciendo que parezca que dicen lo que el creador quiere. Y también en la pornografía. Es más, el 96 % de deepfakes que circulan en la red son sexuales y la mayoría están protagonizados por mujeres, según Deeptrace Labs.

¿Qué tan fácil es crear un video de este tipo? 

“Por ahora se necesitan muchos datos (fotos, videos y grabaciones de voz) incluso para hacer un clip corto donde el creador tiene el control de lo que se dice. Pero esto es ahora... ¿Qué pasará este año o en la nueva década?”, señala Moore, “puede que en el futuro crear un deepfake a partir de una o dos historias cortas de Instagram sea posible. Es más, podría existir una app que permita crearlos sin esfuerzo”.

3.000 videos falsos forman parte de una base de datos de Google para crear herramientas que puedan detectar de forma automática videos manipulados y, así, hacer frente a los deepfakes.

Es así que el experto predice que en los próximos 10 años veremos no solo videos falsos que involucrarán a figuras públicas, sino a las personas más cercanas a nosotros, como pueden ser colegas, compañeros o familiares.

whatsapp

Estas son las seis funciones de WhatsApp más esperadas en 2020

Leer más

Para frenar este fenómeno, recomienda tratar con cierto grado de escepticismo incluso a los videos más realistas. Además, “y aunque es una tarea difícil”, cree que se necesita desarrollar una tecnología que detecte mejor los deepfakes con machine learning, la pieza central de su creación, para que actúe como antídoto.

Por ahora Google ha creado una base de datos con más de 3.000 videos falsos con el fin de crear una herramienta que pueda detectarlos. Mientras que China castiga su difusión, desde el primer día de este mes. Aquellos que los distribuyan incurrirán en un delito de carácter penal que los llevará directo a prisión.

DEBE SABER

Un estudio de Deeptrace, presentado en octubre de 2019, reveló la existencia de 14.698 videos bajo la técnica del deepfake, mientras que en diciembre de 2018 dieron con 7.964. El 96 % de estas animaciones son contenidos pornográficos muy rentables.

Un negocio lucrativo

Según el mismo estudio, los cuatro principales sitios web de pornografía con deepfakes (todos con ingresos por publicidad en la web) han conseguido 134 millones de visitas en sus videos modificados desde febrero de 2018. Uno que permitía a los usuarios quitar sintéticamente la ropa de las imágenes fijas de mujeres cobraba $ 50.

EL EXPERTO 

Hay que entender su capacidad para hacerle frente

Jake Moore, Security Specialist ESET

Con escándalos políticos, seudónimos y escenarios casi inimaginables que involucran videos falsos, es posible que, sin darnos cuenta, estemos ante el comienzo de una epidemia en la que la línea entre la verdad y la mentira sea imposible de determinar.

No cabe duda de que los sitios pornográficos explotarán a las celebridades sin su consentimiento, así como también que los ciberdelincuentes utilizarán esta tecnología para engañar a sus víctimas. Los deepfakes lograrán que algunos de nosotros incluso no confiemos en nada, por más que nuestros sentidos nos digan que estamos ante un contenido verdadero.

Vendrán ataques complejos basados en machine learning y no debemos olvidar que, debido a la escala de poder que utilizarán, muchos de estos ataques son actualmente insondables, por lo que tienen el potencial de ser más grandes de lo que podemos anticipar.

Por lo tanto, como es posible que los atacantes hagan uso de forma maliciosa del aprendizaje automático, debemos estar preparados y ser conscientes de cómo combatir tales ataques, ya que tendrán la capacidad de aprender lo que funcionó y lo que no funcionó sobre la marcha y luego volver a entrenarse a sí mismos con el fin de superar las defensas existentes.

Los defensores de la seguridad informática necesitan entender cómo se crearán estos ataques basados en machine learning, cuáles podrían ser sus capacidades y unirse para hacerles frente.