
Fraudes digitales con IA: deepfakes y bots desafían la ciberseguridad en 2025
El fraude cibernético evoluciona con IA: clonación de voz, identidades sintéticas y perfiles falsos desafían lo digital
Octubre es el Mes de la Concienciación sobre Ciberseguridad, y en 2025, la pregunta clave ya no es cómo proteger los sistemas, sino cómo saber quién es realmente humano en línea. Con el auge de la inteligencia artificial, los fraudes digitales han dejado atrás los enlaces sospechosos y ahora se camuflan en rostros clonados, voces sintéticas y perfiles que parecen reales. Ecuador no está exento: el 96 % de los encuestados por Ipsos afirma haber sido víctima de fraude o conocer a alguien que lo ha sido.
(Te puede interesar: Redes sociales en Ecuador: riesgos de la IA y claves para evitar estafas)
Según datos de Security Hero, el número de videos deepfake aumentó un 550 % entre 2019 y 2024, y se proyecta que solo este año el fraude con esta tecnología crezca un 162 %. Los casos van desde familiares clonados que piden dinero, hasta ejecutivos falsos que inducen transferencias millonarias. Estas estafas ha superado las barreras tradicionales de seguridad.
Donde fallan las defensas actuales
Los sistemas actuales se enfocan en proteger accesos, pero no verifican si quien entra es humano. Las contraseñas, los SMS y los cortafuegos no detectan identidades sintéticas ni bots que simulan comportamientos reales. Las vulnerabilidades más comunes incluyen:
- Suplantación sintética: clonación de voz y mezcla de datos reales y falsos para crear perfiles operativos.
- Crisis de confianza: perfiles falsos en apps de citas, currículums generados por IA y reseñas manipuladas.
- Mayorías falsas: bots que influyen en redes sociales, encuestas y opinión pública, distorsionando la percepción colectiva.
La prueba de humanidad como solución
Carlos Ángel Uribe, gerente regional de Tools for Humanity, señala que la ciberseguridad debe ir más allá de los cortafuegos:
“Necesitamos formas de verificar la humanidad —de forma privada y universal— para garantizar que la tecnología siga sirviendo a las personas, y no engañándolas”.
La propuesta se basa en cuatro pilares:
- Verificación con privacidad: demostrar que eres humano sin revelar datos personales.
- Interoperabilidad universal: una sola verificación válida en todos los servicios.
- Diseño resistente al fraude: pruebas únicas que no pueden ser robadas ni replicadas.
- Accesibilidad global: funcional para cualquier persona, sin importar su dispositivo o nivel técnico.
Verificar la humanidad se convierte en la base de toda interacción digital significativa. Proyectos como World ID buscan garantizar que cada persona tenga acceso seguro a la economía digital, sin perder su privacidad ni su identidad. La ciberseguridad del futuro no solo protegerá sistemas: protegerá lo que nos hace humanos.
¿Quieres acceder a todo el contenido de calidad sin límites? ¡SUSCRÍBETE AQUÍ!