¿Cómo se rastrea el contenido violento en Internet?

Las grandes plataformas digitales contratan equipos de miles de trabajadores para detectar y borrar contenidos racistas, xenófobos, sexistas o terroristas.

26 mar 2019 / 12:00

El discurso del odio se expande a través de Internet a toda velocidad. En su intento por mitigar este fenómeno, corrosivo para la democracia, los gigantes tecnológicos se comprometieron en 2016 a borrar en menos de 24 horas los mensajes que inciten al racismo, la xenofobia o el sexismo. Para llevar a cabo esta tarea han contratado a un ejército de vigilantes que filtran un alud de contenidos que circulan por Internet y las redes sociales. Su tarea es borrar todo aquello que aliente el odio en cualquiera de sus vertientes: etnia, religión o nacionalidad.

Las imágenes de la retransmisión en Facebook del atentado en dos mezquitas en Nueva Zelanda, que causó medio centenar de muertos, estuvieron circulando por la Red hasta que la policía dio la voz de alerta. Facebook asegura que borró rápidamente el vídeo y también las cuentas del tirador. No obstante, las copias ya se habían multiplicado. Sus filtros de inteligencia artificial fallaron. El contenido fue reproducido 4.000 veces hasta que la compañía pudo acceder al enlace con la grabación. En 24 horas eliminaron 1,2 millones de vídeos. YouTube, Twitter, Instagram y Reddit retiraron también las imágenes a medida que iban apareciendo en estas plataformas.

Cuatro grandes tecnológicas —Facebook, Twitter, YouTube y Microsoft— firmaron en 2016 un código de conducta con la Comisión Europea para combatir la incitación al odio en Internet. A este documento se adhirieron otras compañías de menor tamaño, como Dailymotion o Snapchat. Estas corporaciones aseguran que han reforzado sus sistemas de seguridad y vigilancia para erradicar contenidos maliciosos. Utilizan tres métodos: las denuncias de los usuarios, los programas de inteligencia artificial y los vigilantes humanos.

¿Cómo se rastrea el contenido violento en Internet?
Facebook y Twitter son dos de los gigantes tecnológicos que en 2016 se suscribieron a un código de conducta con la Comisión Europea para combatir la incitación al odio en la web. (Pixabay)

Google explica que “los estándares de lo que constituye un discurso de odio varían de un país a otro, al igual que el lenguaje y la jerga que utilizan” y que ha mejorado “la velocidad y precisión”. Entre julio y septiembre del año pasado, YouTube eliminó más de siete millones de vídeos por violar sus normas y bloqueó 224 millones de comentarios. En esa fechas, Facebook borró 2,5 millones de piezas que violaban “las normas sobre incitación al odio”. El 53% fueron detectadas “proactivamente” a través de sus propios sistemas antes de recibir aviso exterior.

“Uno de los empleos menos agradables del mundo”

La compañía creada por Mark Zuckerberg ha contratado a expertos en áreas relacionadas con los menores, el discurso del odio y el terrorismo. Sus equipos vigilan en 80 idiomas diferentes. Es un trabajo duro, como apuntaba la comisaria de Justicia, Vera Jourová, tras visitar, recientemente, un centro de control de contenidos en Dublín. “Puedo decir que tienen uno de los empleos menos agradables del mundo. Son héroes de la era digital”.

En Facebook, alrededor de 15.000 personas trabajan en misiones de control. Uno de los centros está en Barcelona y opera en colaboración con Competence Call Center (CCC). En noviembre contaba ya con 800 empleados para “revisar toda clase de contenidos problemáticos y abusivos”.

Es imposible evitar al 100% que esos mensajes estén presentes. Pero sí es posible la detección temprana, limitar su viralidad y hace muy compleja su búsqueda en Internet”, asegura Javier Lesaca, doctor en Historia e investigador visitante de la Columbia University. Considera que “las nuevas plataformas de comunicación digital deberían concienciarse de que ya no son simples empresas de tecnología”, porque “se han convertido en elementos vertebradores de la opinión pública de la sociedad y deben asumir la responsabilidad que implica ese nuevo papel”.

Las plataformas saben que la UE está vigilante. “No invierten motu proprio. Actúan por la presión de los ciudadanos y de las instituciones. Se ven obligados a adoptar medidas si quieren mantener la gallina de los huevos de oro”, afirma Ferran Lalueza, profesor de los Estudios de Ciencias de la Información y de la Comunicación de la UOC. Las plataformas actúan también porque “son conscientes de que se exponen a multas millonarias”, subraya Lalueza, según el cual los mecanismos para combatir el discurso del odio son insuficientes. “Estos contenidos siguen campando por las redes sociales”.

A la hora de ejecutar estas tareas, Facebook se apoya en herramientas de inteligencia artificial, pero la vigilancia humana es fundamental. Quienes se dedican a inundar la Red de mensajes de odio se las ingenian para sortear los algoritmos de detección. Por ello las compañías confían cada vez más estas tareas a controladores de carne y hueso. YouTube quiere contar con 10.000 personas para examinar los vídeos alojados bajo sus dominios.

Todas estas iniciativas son un avance, pero “queda mucho por mejorar”, afirma Lalueza. Los sistemas que utilizan la inteligencia artificial son una vía efectiva, pero en una multinacional como Facebook, con 2.300 millones de usuarios activos, “cualquier intento de control humano está condenado al fracaso o a no tener la agilidad suficiente para que las medidas tengan efecto”.

Las plataformas prefieren la autorregulación y, de paso, mantener lejos a los reguladores. Frente a quienes consideran que eliminar contenidos es una suerte de censura, Lalueza sostiene que la línea roja no está en la libertad de expresión sino en la libertad de agresión. “Y en este punto, a las autoridades no debería temblarles el pulso. El discurso del odio no puede quedar protegido por la libertad de expresión. No debe tener amparo porque socava el Estado de derecho”.

Para la Comisión Europea, el código de conducta es “un paso importante”, pero Lesaca percibe que se deberían actualizar las regulaciones legislativas para endurecer la publicación de mensajes violentos o incitadores al odio en el entorno digital y exigir a las plataformas mucha más rapidez para detectar y eliminar esos contenidos. Y da la voz de alerta: “Los grupos terroristas, violentos y extremistas cada vez están migrando sus contenidos a plataformas más pequeñas, pero que son igual de eficaces para viralizar y socializar sus contenidos”.

Este contenido es una producción de Gráficos Nacionales SA Granasa, publicada originalmente en el sitio web www.expreso.ec y protegida por derechos de autor. Su reproducción total o parcial queda prohibida.

TAGS:
A LA CARTA