Inteligencia Artificial Gemini: creación de escultura comercial
Las figuras de acción con IA, un fenómeno viral que ha capturado a la audiencia en redes sociales.Gemini

¿Tus figuras de acción con IA son un riesgo? Expertos alertan sobre la privacidad

La tendencia de crear figuras de acción con IA genera alertas por riesgos a la privacidad y posibles fraudes digitales

La inteligencia artificial se ha convertido en un fenómeno cotidiano y, en muchos casos, en un pasatiempo viral. En estas semanas, una nueva tendencia ha conquistado TikTok, X e Instagram: crear figuras de acción personalizadas a través de Gemini Flash, popularmente conocido en la comunidad como Nano Banana. Con solo escribir una descripción (prompt), miles de usuarios obtienen imágenes que simulan muñecos coleccionables.

Sin embargo, lo que parece un simple juego digital también ha encendido las alarmas de los expertos en ciberseguridad.

El atractivo de lo gratuito y el verdadero costo

El éxito de esta herramienta radica en que es gratuita, pero ese mismo detalle representa su mayor riesgo.

Bruno Sánchez, especialista en ciberseguridad, advierte: “Si uno no está pagando por la aplicación, tú eres el precio”. Según él, las imágenes y datos que los usuarios suben son utilizados para entrenar los modelos de IA, lo que abre la posibilidad de que luego se comercialicen con terceros sin consentimiento explícito.

Alejandro Varas, también experto en el área, recuerda que el problema está en que pocas personas leen las políticas de privacidad. “Las plataformas gratuitas suelen apropiarse de los datos entregados por los usuarios”, señaló.

Del juego viral al ataque cibernético

Más allá de la privacidad, los riesgos se extienden al campo de la seguridad personal. Sánchez advierte que los datos biométricos y la voz pueden servir para crear suplantaciones de identidad y ataques de ingeniería social. Casos de “sextorsión” —cuando rostros de usuarios son colocados en imágenes falsas de desnudos generados con IA— son un ejemplo extremo de estas amenazas.

Aunque Varas coincide en el peligro, aclara que no se trata de un ataque de phishing directo. El verdadero riesgo aparece si esa información llega a filtrarse: “En manos equivocadas puede usarse para fraude, robo de identidad o extorsiones”.

Ilustracion de Inteligencia aritificial
La herramienta de Google Gemini procesa las imágenes subidas por los usuarios para generar figuras de acción y utiliza esos datos para entrenar y refinar sus modelos de inteligencia artificial.PEXELS

¿Qué hacen las empresas y qué puedes hacer tú?

El debate también alcanza a las grandes compañías tecnológicas. Sánchez cree que empresas como Google deberían ser más transparentes en los acuerdos de uso de datos, sin recurrir a letras pequeñas ni cláusulas ambiguas.

Por su parte, Vara reconoce que sí existen políticas estrictas y protocolos de seguridad, pero admite que el riesgo de un ciberataque a gran escala nunca desaparece del todo.

Frente a este panorama, ambos expertos recomiendan precaución:

  • Leer los términos y condiciones antes de subir imágenes o datos.

  • Optar por suscripciones de pago, que suelen ofrecer mayores garantías sobre la protección de la información.

  • Evitar compartir datos sensibles en aplicaciones gratuitas que utilicen inteligencia artificial.

Lo que hoy parece un pasatiempo divertido con figuras de acción digitales puede convertirse mañana en un problema serio de seguridad. La advertencia de los expertos es clara: la privacidad en la era de la inteligencia artificial no debe subestimarse.

Para leer contenido de calidad sin restricciones, SUSCRÍBETE AQUÍ