
Análisis estratégico | Nuevo riesgo reputacional: Las alucinaciones de la IA
Estudios indican que las alucinaciones ocurren en un 5% a 15% de las respuestas, esto implica riesgos para la reputación
Me enteré gracias Grok, -a quién consulté qué sabía sobre mí- que soy un reconocido novelista quiteño, y no soy ni lo uno ni lo otro, al reclamarle por su error devolvió una descripción más apegada a la realidad. Lo hecho por Grok ocurre también en Chat GPT y Gemini, todas “alucinan”.
(Lea también | Tigo llega a Ecuador: ¿Qué pasará con los clientes de Movistar y Tuenti)
El error parte de su programación que las obliga a responder y del sistema de entrenamiento que las premia por hacerlo. Recientemente estas plataformas están incorporando “honestidad intelectual” y cuando no tienen toda la información, responden “no estoy seguro”. Hice el experimento con mi nombre ya que las plataformas de inteligencia artificial (IA) se han convertido en fuentes de información masiva, son utilizadas como buscadores por millones de personas. La diferencia con Google es que la IA no muestra enlaces para que el usuario elija, sino que responde de manera directa y con tono de certeza. En ocasiones inventan datos, mezclan biografías o atribuyen responsabilidades inexistentes, “alucinan”.
Estudios recientes indican que las alucinaciones ocurren en un 5% a 15% de las respuestas, esto implica nuevos riesgos para la reputación de empresas y personas. Ya existen casos donde las afectaciones han sido graves y han llegado a los Tribunales.
El riesgo para la reputación de empresas y personas es serio. En Australia, un político fue vinculado por ChatGPT a un escándalo de corrupción y debió iniciar acciones legales para limpiar su nombre. En Estados Unidos, una empresa de logística fue descrita como protagonista de un fraude financiero que nunca ocurrió; el daño reputacional fue inmediato. Incluso abogados han sido víctimas: en 2023 un jurista en Nueva York citó sentencias inventadas por la IA en un juicio, lo que le valió sanciones judiciales.
Lo ocurrido en mi caso, aunque el error parecería menor, sirve como advertencia: una biografía mal atribuída puede confundir sobre la trayectoria de alguien y en contextos más delicados abrir la puerta a confusiones graves.
La lección es clara: la reputación puede verse comprometida simplemente porque una IA fabricó una “respuesta confiable” a partir de información incompleta o inexistente.
Para blindarse contra este riesgo hay que:
1. Controlar la narrativa digital. La IA aprende de lo que encuentra. Si la información oficial es escasa, rellenará vacíos con inventos. Publicar perfiles claros, comunicados y biografías verificables es el primer blindaje.
2. Generar contenido en formato de respuesta. Páginas que incluyan preguntas y respuestas directas: “¿Quién es X?”, “¿Cuál es el rol de Y en la empresa Z?”.
3. Priorizar autoridad y confiabilidad. Las IA prefieren fuentes reconocidas. Difundir la versión oficial en medios de prestigio, portales especializados y páginas institucionales reduce la exposición a errores.
4. Actualizar con frecuencia. Los sistemas conectados a internet valoran lo más reciente. Revisar y renovar periódicamente la información, disminuye el riesgo de que circulen datos antiguos.
5. Monitorear constantemente. Así como se vigila lo que dicen los medios y redes sociales hoy es necesario auditar qué dicen las IAs sobre uno mismo o sobre la empresa. Detectar errores a tiempo permite reaccionar antes de que se difundan.
Las alucinaciones de la IA son el equivalente digital a los rumores boca a boca y los fake news, con una diferencia esencial: circulan con apariencia de objetividad. En este escenario no basta con esperar a que la verdad se imponga; hay que trabajar activamente para que la primera respuesta de la IA sea la correcta.
La reputación ya no solo se defiende en los Tribunales, en los Medios o redes sociales. También se la protege de los algoritmos que fabrican respuestas.