Premium

Marc Faddoul: ¿Quién le susurra al oído a tu chatbot?

Los chatbots no son solo modelos de lenguaje, sino sistemas con varias capas algorítmicas opacas

Los algoritmos no son neutrales en términos de valores. Durante más de una década, grandes empresas tecnológicas han actuado como guardianes del ecosistema informativo sin transparencia ni rendición de cuentas, lo que ha amplificado contenidos polarizantes, publicidad encubierta, comportamientos monopolísticos y formas de influencia contrarias a la deliberación democrática.

A pesar de conocer estos riesgos, repetimos el error con los chatbots de IA, que generan y sintetizan información en respuestas que parecen confiables, a diferencia de redes sociales o buscadores que solo seleccionaban contenido.

Este cambio de curadores a editores vuelve la influencia más invisible y dañina.

Estamos dando a empresas privadas un poder sin precedentes sobre el acceso al conocimiento sin supervisión independiente.

El problema no es que la IA se vuelva autónoma, sino que unos pocos actores controlan cada vez más la información que consume la población.

Los chatbots no son solo modelos de lenguaje, sino sistemas con varias capas algorítmicas opacas, cada una susceptible de manipulación.

La primera es la selección de datos de entrenamiento: decidir qué incluir o excluir define la visión del mundo del modelo y suele responder a intereses específicos.

La segunda capa es el aprendizaje por refuerzo mediante retroalimentación humana o de IA, que ajusta el modelo para hacerlo útil o seguro, pero también introduce sesgos según los criterios de las empresas.

La tercera capa es la búsqueda en la web, que determina qué fuentes se incorporan y prioriza ciertos contenidos, y la posible inclusión de publicidad plantea dudas sobre la objetividad.

La cuarta capa son las indicaciones del sistema, que modifican el comportamiento del chatbot sin reentrenarlo.

Y la quinta capa son los filtros de seguridad, que controlan qué consultas son aceptables y qué respuestas se muestran, abriendo la puerta a censura sistemática sin conocimiento público.

Estas capas ya son moldeadas por intereses políticos y corporativos, con casos donde empresas ajustan directrices para suavizar lenguaje político o relajar restricciones sobre contenidos problemáticos, generando respuestas sesgadas.

La manipulación mediante chatbots puede influir en votantes indecisos, lo que representa riesgos para la democracia.

A diferencia de regímenes autoritarios, las democracias dependen de diversidad informativa y transparencia. Permitir control centralizado sin rendición de cuentas abre la puerta a formas sutiles de control informativo sin censura explícita.

La transparencia es esencial para proteger la libertad de expresión. Sin ella, es imposible saber qué información se filtra o qué intereses influyen en lo que vemos.

La experiencia con redes sociales mostró los peligros de la falta de regulación oportuna.

No podemos repetir ese error con tecnologías aún más influyentes.

Supervisión, responsabilidad y apertura en el desarrollo de la IA son clave para preservar un ecosistema informativo plural y democrático.