
¿Cómo usan la IA los estudiantes? Universidades de Guayaquil debaten sus riesgos
Plagio y la pérdida del pensamiento crítico son algunos de los peligros que la tecnología ha traído a las aulas del país
Son tiempos de reinvención para la academia. Por un lado, impulsar desde la ciencia proyectos que brinden bienestar al país y, por otro, innovar frente a una tecnología que ha puesto en jaque a varias metodologías a nivel mundial: la inteligencia artificial (IA).
Riesgos en las aulas y en el mundo científico
Y es que el debate se ha encendido en las últimas semanas tras una denuncia en Argentina de un alumno ecuatoriano aspirante a la carrera de Medicina, quien utilizó herramientas de IA y manchó la imagen académica del país. En Guayaquil, algunos docentes la observan con recelo, aunque no la condenan.
La más reciente edición del examen de habilitación profesional del Consejo de Aseguramiento de la Calidad de la Educación Superior (Caces), dirigido a médicos, odontólogos y enfermeros, reavivó la polémica.
— Diario Expreso (@Expresoec) August 1, 2025
¿Por qué? 👇https://t.co/UphixG2Rth
Una de las voces críticas es la de David Montalván Poppe, docente universitario. Su análisis, lejos de satanizar la tecnología, se centra en los riesgos de una adopción acrítica. Para Montalván, el debate supera la simple deshonestidad estudiantil, advirtiendo que el uso de herramientas de IA generativa representa una “invasión total a la privacidad” para realizar “actividades triviales”.
Añade el peligro de que se conviertan en “cabinas de eco” que refuercen prejuicios, en vez de estimular el pensamiento crítico.Y extiende su preocupación al ámbito científico, pues denuncia la circulación de artículos fraudulentos con textos “totalmente ininteligibles, que citan fuentes inexistentes” y que, alarmantemente, logran superar los filtros de revistas de prestigio.
¿Prohibir o adaptar? La respuesta de las universidades
Frente a este panorama, las principales casas de estudio coinciden en que prohibir resulta inútil. La responsabilidad, sostienen, recae ahora en el educador. Rodrigo Cisternas, vocero de la Universidad Casa Grande, califica el fenómeno como “inevitable”. “La pregunta es qué cosas (actividades) debemos pensar para que los alumnos las hagan, ayudados por la IA, y no que la IA lo haga por ellos”, plantea.
Desde la Universidad Católica de Santiago de Guayaquil (UCSG), su vocero David Aguirre insiste en evitar la satanización y propone más bien “pensar en prácticas internas y éticas”. La institución trabaja en actualizar sus normativas y en un plan piloto en el que los estudiantes declaren el uso de IA. El objetivo, explica, no es que la tecnología sustituya el trabajo intelectual, sino potenciar la habilidad más relevante: el “pensamiento crítico”.

Manuel Reyes, de la Universidad Bolivariana del Ecuador (UBE), sostiene una postura abiertamente favorable, ofreciendo una carrera en IA, por ser uno de los campos “con mayor demanda a nivel internacional”. Sin embargo, contrarrestan la dependencia a la inteligencia artificial con un modelo pedagógico estricto. “El aprendizaje es un conjunto de experiencias previas antes de llegar a introducir un prompt (instrucción)”, señala, explicando que la meta es construir un conocimiento validado para evitar las frecuentes “alucinaciones” de la IA.
Por su parte, Nory Pinela Morán, de la Universidad Ecotec, describe un plan de acción en tres dimensiones: diseño estratégico del aprendizaje, resguardo de la integridad académica y sólida formación ética.
El criterio humano: El ‘software’ antiplagio definitivo
Aunque existen herramientas de detección, en la academia prevalece un sano escepticismo sobre su eficacia. La confianza se deposita en el criterio del docente. “Los que trabajamos en esto, leemos y escribimos todo el tiempo, así que sabemos cuándo algo está hecho por una IA”, sostiene Aguirre. Describe los textos hechos con IA como predecibles, con “ideas reiterativas, que no conducen a ningún lado, muy generales”.
Su conclusión es tajante: “Esos textos no tienen espíritu. El criterio del docente debe ser el primer ‘software’ antiplagio”.
Desde la perspectiva del alumno, la visión es también compleja. “La IA es una llave. El ser humano decide si esa llave abre las puertas del cielo o del infierno”. Y añade: “No hace vagos, como tampoco hace genios. Solo exalta patrones disciplinarios previos”, asegura Sergio Pupulin, de 24 años.
Esa mirada la comparte, con matices, Steven Monge, de 25 años, quien traza una línea clara en su uso. “Pienso que como herramienta académica está mucho mejor en manos del docente para la enseñanza, ya que puede facilitar la interactividad”. Sin embargo, se muestra escéptico respecto a su empleo en el aprendizaje: “Siento que nuestra cultura no está lista para que los estudiantes la usen de manera honesta”.
@expresoec Cuando la IA crea, el arte se cuestiona 🤔🎨🤖 La IA se cuela en el arte: lo que empieza como un juego creativo con ChatGPT inquieta a profesionales que temen ser reemplazados. @delguasmo.ec y @daruleos comparten su mirada sobre este nuevo paisaje entre la tecnología y la creación. Revisa más información en expreso.ec 📲
♬ sonido original - Diario Expreso
El consenso final es que no existe una pérdida de habilidades, sino una transformación. Como resumió un educador, “la IA no desplazará al ser humano, pero el ser humano que no maneje la IA sí podrá ser desplazado”, una idea que comparte Pinela, vicerrectora académica de Ecotec.
Esta necesidad la advierte Cisternas con una anécdota. Al pedir a una aplicación de este tipo que genere la imagen de una ‘persona exitosa’ o de una ‘marginal’, reproduce estereotipos que en la actualidad se intenta erradicar. Por ello, sostiene que la tecnología es poderosa, pero no reemplaza el juicio humano, y enseñarlo constituye el nuevo y urgente núcleo de la educación.