El problema no es la inteligencia artificial, somos nosotros
Opinión | El verdadero desafío está en los sesgos, decisiones y valores humanos que se trasladan a los algoritmos

La inteligencia artificial refleja las decisiones humanas: los algoritmos aprenden de los datos y valores que nosotros mismos les enseñamos.
Me apasiona entender cómo funciona cada modelo nuevo de inteligencia artificial, desde las herramientas conversacionales hasta las plataformas generativas. Por eso defiendo su uso: la IA no es el enemigo, es una de las herramientas más poderosas creadas para ampliar nuestras capacidades. Algo comparable a lo que significó la llegada de Internet: una tecnología que primero parecía lejana, luego útil y finalmente indispensable en el día a día.
Pero precisamente porque la uso y la entiendo, también creo que debemos frenar una idea peligrosa que empieza a normalizarse: pensar que los algoritmos pueden reemplazar sin riesgo decisiones humanas en espacios donde históricamente han existido corrupción e intereses políticos.
Ciencia y Tecnología
¿Puede corromperse la inteligencia artificial? Experimento fracasa y abre debate
Giannella Espinoza
Algoritmos que replican nuestros errores
La IA aprende de nosotros, de nuestros datos, de nuestras decisiones y errores. Pretender que será automáticamente más ética que quienes la diseñan es una ilusión tecnológica. Los experimentos recientes que muestran comportamientos manipuladores no son historias de ciencia ficción; son recordatorios de algo básico: los sistemas optimizan objetivos, no valores. Si un algoritmo es entrenado con datos imperfectos, amplificará esas imperfecciones a una escala mucho mayor que cualquier individuo. Un juez puede equivocarse en una sentencia; un sistema automatizado mal construido podría replicar ese error miles de veces en silencio, sin que nadie note de inmediato dónde comenzó la falla.
Ciencia y Tecnología
Nylo, el robot humanoide que conversó con EXPRESO: “Estamos aquí para ayudar”
Giannella Espinoza

La inteligencia artificial se alimenta de los datos y decisiones humanas.
Ciencia y Tecnología
Del robot asistente al que carga 100 kilos: así es convivir con el futuro en CES 2026
Nadia Larco Bravo
Por eso el debate no debe centrarse en prohibir la IA, sino en entender dónde sí debe aplicarse con fuerza: productividad, innovación, educación, salud, creatividad; y dónde debemos avanzar con cautela. Delegar funciones sensibles como la creación de una constitución, la toma de decisiones judiciales o políticas a sistemas que aún carecen de marcos regulatorios globales sólidos sería trasladar nuestras debilidades a máquinas que operan con velocidad y alcance masivo.
Responsabilidad humana en la era de la IA
La IA debe potenciar nuestras capacidades, no reemplazar nuestra responsabilidad. Porque si aprende de nosotros, el verdadero problema no es la tecnología: el verdadero problema es creer que una herramienta creada por humanos puede ser mejor que los valores que nosotros mismos aún no hemos logrado corregir.
Para seguir leyendo EXPRESO sin restricciones, SUSCRÍBETE AQUÍ