Torenza
El video de Torenza fue creado con herramientas de inteligencia artificial y difundido como si fuera real.CORTESÍA

¿Cómo puede la IA crear virales tan creíbles como el de 'Torenza'?

Una mujer mostrando un pasaporte de un país inexistente desató un misterio global. Pero nada era real: todo fue creado con IA

Una mujer llega al aeropuerto JFK de Nueva York. Entrega su pasaporte. El oficial duda. Ella dice con total seguridad: 'Soy de Torenza, queda en el Cáucaso'. El documento parece legítimo. El video se vuelve viral. Pero hay un detalle clave: Torenza no existe.

El clip, que acumuló millones de reproducciones en TikTok y X (antes Twitter), fue producido con inteligencia artificial. No es un montaje casero ni un truco de edición. Es un producto digital sofisticado, creado para parecer real hasta en el más mínimo detalle.

Y funcionó.

(Te puede interesar: 'Torenza' no figura en la Biblia: origen viral y lecturas espirituales sin sustento)

Un nuevo caso de viralidad impulsada por IA

La historia recuerda al famoso “hombre de Taured”, una leyenda urbana de 1954 en la que un misterioso viajero llegó a Japón con un pasaporte de un país que no figuraba en ningún mapa. Esa vez, la historia quedó en el mito. Hoy, con IA, el mito puede ser recreado en alta definición.

El video de Torenza tiene todo lo necesario para ser viral:

  • Estética realista.
  • Diálogo fluido.
  • Escenario reconocible.
  • Intriga inmediata.

El resultado fue una mezcla perfecta de misterio, tecnología y desinformación.

El caso de Torenza
La misteriosa mujer del supuesto pasaporte de 'Torenza' fue parte de un video viral que mostraba documentos con sellos internacionales y causó confusión en redes.Captura de video mejorada con ChatGPT

¿Cómo puede la IA crear un video falso tan creíble?

La creación del “pasaporte de Torenza” combinó varias herramientas de inteligencia artificial de última generación: 

  1. Generación de imágenes hiperrealistas. Herramientas como Midjourney o Stable Diffusion permiten crear documentos falsos con sellos, chips, hologramas y logos de países ficticios.
  2. Videos con deepfake y voz clonada. Con programas como Synthesia o HeyGen, se pueden generar rostros realistas hablando cualquier idioma. ElevenLabs permite clonar voces humanas con naturalidad.
  3. Guiones escritos por IA. Modelos como ChatGPT son capaces de construir diálogos creíbles, descripciones de ubicaciones ambiguas (como el Cáucaso) y argumentos que suenan verosímiles.
  4. El contenido está diseñado para generar teorías, no respuestas.

El problema no es Torenza, es lo que viene después

Este tipo de creaciones no solo son virales. Son profundamente engañosas. Y más aún: podrían ser usadas con fines políticos, sociales o incluso delictivos.

Riesgos principales:

  • Desinformación masiva.
  • Desconfianza generalizada en lo que vemos.
  • Instrumentalización de contenidos falsos para desprestigiar o manipular.

Expertos ya hablan de un fenómeno llamado “crisis de la verdad”, en el que incluso lo que es real empieza a ser cuestionado.

Claves para identificar contenido generado artificialmente

  1. Errores en textos: fechas imposibles, nombres mal escritos, incongruencias gramaticales.
  2. Detalles visuales extraños: sombras incorrectas, dedos de más, firmas borrosas.
  3. Voces planas: sin emoción o ritmo humano.
  4. Narrativas demasiado perfectas: como si todo hubiera sido guionado.
  5. Falta de respaldo real: ni medios ni autoridades confirman lo mostrado.

Entre leyenda, tecnología y manipulación

El caso de Torenza mezcla nostalgia, curiosidad y miedo. Nos recuerda cuánto nos atraen los misterios y lo fácil que es hoy darles forma digital. Pero también nos advierte: lo que vemos ya no siempre es confiable.

Por eso, la alfabetización digital, el escepticismo y el periodismo riguroso son más importantes que nunca.

Para seguir leyendo EXPRESO sin restricciones, SUSCRÍBETE AQUÍ