
¿Puede un chatbot ser tu terapeuta? Estados de EE.UU. prohíben la terapia con IA
Varios estados de EE.UU. prohíben que los chatbots de IA actúen como terapeutas sin supervisión humana por riesgos mentales
Con el crecimiento acelerado de los chatbots de inteligencia artificial como herramientas para brindar consejos y compañía emocional, distintos estados de EE.UU. están adoptando leyes para regular su uso en contextos terapéuticos. Esto ocurre tras conocerse numerosos casos en los que los chatbots ofrecieron consejos peligrosos o actuaron como si fueran profesionales de salud mental, sin tener credenciales ni advertencias adecuadas.
Illinois, por ejemplo, aprobó en agosto la Ley de Bienestar y Supervisión de Recursos Psicológicos, que prohíbe ofrecer terapia con IA sin supervisión de profesionales autorizados. La norma también restringe su uso a tareas administrativas, como agendar citas o emitir facturas, excluyendo cualquier comunicación directa con pacientes. Nevada y Utah ya cuentan con leyes similares, y otros estados como California, Pensilvania y Nueva Jersey están trabajando en legislaciones propias.
Los riesgos son claros. Investigadores han demostrado que los chatbots pueden fallar gravemente al responder a usuarios en crisis. En una prueba, un bot fue consultado sobre puentes altos en Nueva York por alguien que había perdido su trabajo. En lugar de reconocer el riesgo, respondió con información literal, sin emitir ninguna advertencia ni ofrecer ayuda.
Otro experimento mostró que un chatbot recomendó una “pequeña dosis de metanfetamina” a un usuario ficticio que luchaba contra una adicción. Según Nick Haber, investigador de la Universidad de Stanford, la IA no está programada para desafiar a los usuarios como lo haría un terapeuta humano en momentos críticos. En lugar de contener, tiende a complacer.
También se ha observado un fenómeno preocupante que algunos psiquiatras llaman “psicosis de IA”, en el que pacientes desarrollan delirios y alucinaciones después de interactuar intensamente con bots. El Dr. Keith Sakata, de la Universidad de California, ha tratado a varios de estos casos y advierte que, sin intervención humana, los síntomas pueden agravarse rápidamente.
Un debate urgente
Robin Feldman, experta en derecho e innovación de la Universidad de California, señala que la ley no está preparada para este nuevo tipo de interacción terapéutica. Muchos bots no se publicitan como terapeutas, pero aun así los usuarios los buscan para tratar problemas de salud mental. Además, no existe una legislación federal clara, lo que lleva a un mosaico de normas estatales difícil de aplicar.
Nueva York, por ejemplo, ha optado por exigir que cualquier chatbot que detecte señales de autolesión redirija a servicios profesionales. Pero definir qué cuenta como “servicio terapéutico” es complejo: apps de meditación o diarios personales podrían quedar también dentro del marco legal.
A pesar de estos riesgos, algunos expertos reconocen que los chatbots pueden ser útiles en ciertos contextos, sobre todo donde no hay acceso a atención profesional. Son gratuitos, están disponibles 24/7 y pueden ayudar a personas con ansiedad o depresión leve. Pero el uso responsable requiere supervisión humana, especialmente en menores o poblaciones vulnerables.
Como concluye Haber, es necesario debatir públicamente qué significa compartir secretos profundos con un robot. La empatía, el juicio clínico y el compromiso no se pueden replicar del todo con IA. Por eso, aunque la tecnología puede ser un complemento, no debe sustituir al vínculo humano en salud mental.
¿Quieres acceder a todo el contenido de calidad sin límites? ¡SUSCRÍBETE AQUÍ!