
MIT y OpenAI advierten efectos emocionales del uso excesivo de ChatGPT
Uso excesivo de ChatGPT puede generar soledad y dependencia emocional, según estudio. Uso responsable es clave
Un reciente estudio conjunto entre OpenAI y el MIT Media Lab ha arrojado luz sobre las implicaciones emocionales del uso frecuente de ChatGPT, el popular chatbot de inteligencia artificial. La investigación, basada en el análisis de millones de interacciones y encuestas a miles de usuarios, encontró que las personas que interactúan regularmente con esta herramienta tienden a experimentar mayores niveles de soledad y, en algunos casos, desarrollan una dependencia emocional hacia el sistema.
ChatGPT: ¿una herramienta o un amigo?
El estudio, que examinó millones de conversaciones tanto escritas como por voz, reveló que un grupo reducido pero significativo de usuarios utiliza ChatGPT como una fuente de apoyo emocional, tratando al chatbot como un confidente o incluso un amigo para ser escuchado y aconsejado. Este comportamiento es más común entre quienes ya experimentan aislamiento social.
Cathy Mengying Fang, coautora del estudio, enfatizó que los datos no permiten concluir que ChatGPT cause soledad, pero sí sugieren una correlación preocupante entre el tiempo de uso y el deterioro del bienestar emocional que las personas tienen con la AI.
Un hallazgo notable es que las interacciones por voz, que simulan una comunicación más humana, inicialmente hacen que los usuarios se sientan acompañados. Sin embargo, este efecto se desvanece con el tiempo, especialmente en aquellos que ya presentaban sentimientos de aislamiento antes de usar la herramienta.
Riesgos psicológicos y propuestas para un uso responsable
Los investigadores también observaron que algunos usuarios atribuyen cualidades humanas al chatbot, como empatía, lo que puede dificultar su capacidad para mantener interacciones sociales en el mundo real.
Sandra Matz, experta en comportamiento humano, advirtió que el uso intensivo de estas tecnologías podría empeorar las habilidades sociales de los usuarios, ya que reemplazan parcialmente las relaciones humanas con interacciones artificiales. Por su parte, Ricardo Corral, presidente de la Asociación Argentina de Psiquiatras, destacó que, aunque los chatbots pueden ofrecer un alivio temporal y una ayuda grande, no sustituyen la relevancia de una relación terapéutica con un profesional.
El estudio no busca o pretende prohibir el uso de ChatGPT, sino llevarlo por un enfoque responsable. Los autores recomiendan que los desarrolladores implementen herramientas para detectar patrones de uso problemáticos, como recordatorios para limitar el tiempo de interacción, y diseñen chatbots que promuevan el bienestar sin fomentar dependencia.
Para más contenido de calidad SUSCRÍBETE A EXPRESO