
Alerta por nueva estafa con inteligencia artificial que imita la voz de familiares
Los delincuentes usan plataformas tecnológicas para clonar la voz de las personas
Una nueva modalidad de estafa se está popularizando, usar la inteligencia artificial para clonar la voz de familiares o amigos y así conseguir dinero de las víctimas. En redes sociales circulan videos de personas que alertan haber sido contactados de esta forma, explicando que la voz que escuchaban por llamada telefónica era idéntica a la de sus familiares, pero que era falsa.
¿Cómo funciona?
Clonar la voz es muy sencillo y cualquier persona con acceso a internet y a un dispositivo electrónico lo puede hacer. Plataformas como Descript o Eleven Labs permiten a los usuarios acceder a herramientas de edición de audio usando IA. Para lograr clonar la voz solo es necesario subir un video o nota de audio donde se escuche a la persona que se quiere replicar la voz. Este material se puede encontrar fácilmente en redes como Instagram o TikTok.
A partir de eso, el usuario podrá escribir un texto y la IA lo podrá replicar usando la voz clonada. Los estafadores optan por guiones similares, un familiar de la persona a la que se llamó se encuentra en problemas. Pueden decir que su auto sufrió un daño, la policía lo detuvo o incluso llegar a extremos de afirmar estar secuestrado. Los delincuentes intentan convencer a la víctima, apelando a una situación que requiere de atención inmediata limitando el tiempo de reacción y evitando sospechas.
Este tipo de estafas ya se han realizado en el país, sin embargo, lo que ahora ha encendido las alarmas es el grado de vulnerabilidad, no solo para las víctimas, sino para los usuarios en general cuya voz e imagen puede ser usada para este tipo de estafas.
Amenazas para los usuarios
Este tipo de material utiliza la IA generativa la cual es capaz de generar, no solo audio, sino videos, imágenes o cualquier tipo de contenido multimedia a partir de instrucciones de cualquier usuario. Usar estas herramientas para falsificar la voz, rostro o acciones de otra persona se conoce como 'deepfake', hacen que una persona aparente hacer o decir algo en internet cuando en la vida real nunca pasó.
La voz no es la única usada para estafas, en redes sociales como X circulan videos falsos donde usan la imagen de famosos y de medios de comunicación reconocidos para ofrecer recompensas económicas en plataformas de inversión falsas. El contenido publicado replica la voz y los gestos de las personas, además de incluir links clonados que llevan a páginas falsas que se hacen pasar por los medios de comunicación.
#AlertaDigitalEC #AbusoDeIA
— Usuarios Digitales (@usuariosdigital) June 14, 2025
⚠️𝗙𝗿𝗮𝘂𝗱𝗲: 𝗖𝗿𝗶𝗽𝘁𝗼𝗺𝗼𝗻𝗲𝗱𝗮𝘀 #scam
Clonación de voz y #deepfake de @IsabelNoboaP @ESTEFANIESPIN llevan a página clonada de @EcuavisaInforma
Galería: https://t.co/gM8mGvNAyM
Reporta desinformación con #IA🤖https://t.co/TrTWr84sQU pic.twitter.com/bxAiMdyZn9
Cómo evitar caer en estafas
Cualquier persona puede ser víctima de una estafa, ya sea por llamada, mensajes o a través de redes sociales. Sin embargo, hay ciertas cosas que se pueden hacer para evitar ser una víctima.
- No contestar llamadas de números desconocidos y verificar la identidad es importante.
- Realizar preguntas puntuales que aseguren la identidad de una persona puede evitar que las personas caigan en estafas.
- Ninguna entidad legítima solicita contraseñas o datos sensibles por teléfono.
- Mantener la calma es crucial en estas situaciones, a menudo los estafadores intentan generar pánico para evitar que las personas actúen de manera meticulosa y tomen acción impulsivamente.
- Si se recibe la llamada de un familiar en situación de peligro o que pide ayuda es necesario tomarse un tiempo para evaluar si de verdad es alguien real.
En redes sociales, los fraudes suelen camuflarse como sorteos falsos, perfiles clonados, enlaces maliciosos o mensajes urgentes que buscan generar pánico. Verificar la privacidad de las redes sociales y no publicar información personal que pueda vulnerar al usuario también puedes evitar situaciones de estafa.
Para seguir leyendo EXPRESO sin restricciones, SUSCRÍBETE AQUÍ