¿Usamos la inteligencia artificial como nuestro psicólogo?

Expertos alertan de los riesgos emocionales de recurrir a la IA como apoyo terapéutico

Nuria Galindo
Recurrir a la inteligencia artificial para desahogarse, pedir consejo o buscar compañía emocional se está convirtiendo en una práctica cada vez más habitual. Muchas personas acuden a herramientas como ChatGPT en busca de una respuesta que les alivie o les haga sentirse comprendidas.
 
Sin embargo, los psicólogos insisten en que la inteligencia artificial no puede considerarse un terapeuta real. Uno de los principales peligros de apoyarse en la IA, especialmente ante pensamientos autodestructivos, es que puede llegar a validar el discurso de la persona, lo que en algunos casos podría agravar su estado emocional en lugar de aliviarlo.
 
Además, el uso continuado de la inteligencia artificial como apoyo psicológico puede generar una fuerte dependencia emocional, hasta el punto de que algunas personas llegan a percibirla como un amigo o una figura de referencia constante.
 
Los expertos subrayan que existe una clara diferencia entre el alivio momentáneo que puede proporcionar la IA y la mejora terapéutica real, que solo se consigue a través de un proceso psicológico adecuado y supervisado por profesionales.
 
Un uso recurrente de estas herramientas con fines emocionales puede derivar en dependencia, reducir la autonomía personal y retrasar la búsqueda de ayuda especializada, clave para abordar de forma efectiva los problemas de salud mental.