
Alana Flores y La Chonera Bonita: dos víctimas de deepfake con IA en redes sociales
Ambas creadoras de contenido fueron víctimas de una imagen íntima falsa generada por inteligencia artificial
La influencer de Monterrey Alana Flores fue víctima de una de las formas más dañinas de acoso cibernético moderno: la difusión de una fotografía íntima falsa, generada con herramientas de deepfake. La imagen, que circuló rápidamente en redes sociales, no era real, pero eso no impidió que la afectara profundamente en su salud emocional y física.
“No es real. Y sí voy a buscar demandar”, expresó Alana en su cuenta de X (antes Twitter), donde también identificó al presunto responsable. Aunque el usuario borró su perfil, la influencer aseguró que ya tiene suficientes pruebas para emprender acciones legales.
No es real. Y si voy a buscar demandar.
— AL4NITA (@alanafloresf) May 27, 2025
¿Qué es un deepfake?
Los deepfakes son contenidos creados mediante inteligencia artificial (IA) y aprendizaje profundo. Esta tecnología puede combinar o modificar imágenes, videos y audios para simular personas diciendo o haciendo cosas que nunca ocurrieron. En manos equivocadas, esta herramienta puede convertirse en una forma de violencia digital, especialmente cuando se utiliza con fines sexuales o difamatorios.
Detectar un deepfake puede ser difícil, pero existen señales como expresiones faciales rígidas, parpadeos anómalos, voces con entonación robótica o desincronización entre audio e imagen.
En Ecuador también ocurrió: el caso de La Chonera Bonita
Un caso similar sucedió recientemente en Ecuador, con Leidy Álvarez, conocida como La Chonera Bonita. La joven manabita, famosa en TikTok por sus desfiles como bastonera, fue vinculada a un supuesto video íntimo que comenzó a circular sin verificación alguna. A pesar de que el video no ha sido confirmado como real y presenta señales de edición, la viralización generó una ola de ataques y comentarios ofensivos.
“Los vídeos inapropiados que están circulando en redes no soy yo, unos han sido editados y otros me vinculan solo por el color del cabello”, declaró Leidy en una transmisión en vivo. Añadió que su familia ya había denunciado intentos similares de difamación ante la Fiscalía en 2024, sin resultados concretos. En su comunicado pidió no compartir ni comentar ese tipo de contenido, subrayando que la revictimización también es violencia.
¿Qué dice la ley y cómo actuar?
En países como México y Ecuador, la legislación sobre inteligencia artificial y contenidos manipulados aún está en evolución. Sin embargo, la creación y difusión de imágenes íntimas falsas puede enmarcarse en delitos como violencia digital, usurpación de identidad y difusión de contenido sexual no consentido.
La presidenta de México, Claudia Sheinbaum, ha señalado la necesidad de reformar la Ley Olimpia para que contemple expresamente los casos de deepfakes con fines de violencia de género. “Ya es grave usar la tecnología para mentir, lo es aún más cuando se usa una imagen con contenidos sexuales para afectar a una mujer”, dijo recientemente.
¿Cómo identificar un contenido falso generado por IA?
1. Señales visuales:
- Rostros con movimientos faciales poco naturales.
- Parpadeos irregulares o falta de ellos.
- Desenfoques o sombras mal posicionadas.
2. Señales de audio:
- Voces con entonación artificial o monótona.
- Desincronización entre voz y labios.
3. Verifica el contexto:
- Si la fuente es desconocida o el comportamiento de la persona en el video es incoherente, duda.
- Busca pronunciamientos oficiales: muchas veces las víctimas desmienten públicamente estos montajes.
La ética digital también es tu responsabilidad
Compartir o comentar este tipo de contenidos perpetúa la violencia. Si recibes material de este tipo:
- No lo difundas.
- Repórtalo.
- Informa a la víctima si puedes.
- Sé parte de una cultura digital responsable.
Los casos de Alana Flores y La Chonera Bonita son recordatorios urgentes de que, en la era de la IA, no todo lo que ves es real.
Para seguir leyendo EXPRESO sin restricciones, SUSCRÍBETE AQUÍ