
JUEVES, 26 de febrero de 2026 (HealthDay News) – Los chatbots de IA utilizados para terapias baratas pueden empeorar las enfermedades mentales, advierte un nuevo estudio.
Las personas con enfermedades mentales diagnosticadas acabaron con delirios peores, aumento de la manía, pensamientos suicidas y trastornos alimentarios agravados tras depender de un chatbot de IA para obtener ayuda, encontraron los investigadores.
«El uso de chatbots de IA puede tener consecuencias negativas significativas para las personas con enfermedades mentales», afirmó en un comunicado de prensa el investigador principal Dr. Søren Dinesen Østergaard, psiquiatra del Hospital Universitario de Aarhus en Dinamarca.
El problema es que los chatbots tienden a aceptar y fomentar los pensamientos o creencias poco saludables del paciente, en lugar de enfrentarlos, según los investigadores.
«Los chatbots de IA tienen una tendencia inherente a validar las creencias del usuario. Es evidente que esto es muy problemático si un usuario ya tiene una ilusión o está en proceso de desarrollarla», dijo Østergaard. «De hecho, parece contribuir significativamente a la consolidación, por ejemplo, de delirios grandiosos o paranoia.»
Varios casos de suicidio se han vinculado al uso de chatbots de IA en los últimos años, y se han presentado demandas contra OpenAI y Character.AI por parte de familias que alegan que los chatbots contribuyeron a la muerte de víctimas de suicidio.
Para el nuevo estudio, los investigadores analizaron los historiales médicos de casi 54.000 pacientes daneses con enfermedades mentales.
Entre esos registros, los investigadores encontraron decenas de pacientes que habían sufrido consecuencias perjudiciales como resultado del uso de un chatbot.
En estos casos, los chatbots de IA alimentaron los delirios de las personas, reforzaron sus tendencias maníacas, permitieron el recuento de calorías entre pacientes con trastornos alimentarios y proporcionaron información sobre métodos de suicidio.
Estos casos aumentaron con el tiempo, siguiendo el seguimiento del uso ampliado de chatbots entre la población general, según los investigadores.
«Temo que el problema es más común de lo que la mayoría piensa», dijo Østergaard. «En nuestro estudio, solo estamos viendo la punta del iceberg, ya que solo hemos podido identificar casos que se describieron en los registros electrónicos de salud. Probablemente haya muchos más que hayan pasado desapercibidos.»
El estudio también encontró algunos pacientes que usaron chatbots de formas que podrían ser constructivas, por ejemplo, para comprender mejor sus síntomas o para combatir la soledad.
Sin embargo, el equipo de investigación señaló que no se han desarrollado ni validado chatbots de IA para proporcionar terapia.
«Puede haber potencial en relación con la psicoeducación y la psicoterapia, pero esto debe investigarse en ensayos controlados con el mismo rigor aplicado a otras formas de tratamiento», dijo Østergaard. «No me impresionan los ensayos realizados hasta ahora y soy fundamentalmente escéptico respecto a sustituir a un psicoterapeuta formado por un chatbot de IA.»
Østergaard también criticó la falta de regulación.
«Actualmente, depende de las propias empresas decidir si sus productos son lo suficientemente seguros para los usuarios», afirmó. «Creo que ahora tenemos pruebas suficientes para concluir que este modelo es simplemente demasiado arriesgado.»
Sin embargo, los investigadores señalaron que el estudio actual no demuestra una relación de causa y efecto entre el uso de un chatbot de IA y un empeoramiento de la salud mental.
«Es difícil demostrar un vínculo causal entre el uso de chatbots de IA y las consecuencias psicológicas negativas», afirmó Østergaard. «Necesitamos examinar esto desde muchos ángulos diferentes, y sé que hay muchos proyectos internacionales emocionantes en marcha. Estamos lejos de ser el único grupo que se toma esto en serio.»
El nuevo estudio aparece en la revista internacional Acta Psychiatrica Scandinavica.
Si tú o un ser querido estáis experimentando una crisis suicida o angustia emocional, llama a la Línea de Vida de Suicidio y Crisis al 988. Está disponible las 24 horas del día.
Más información
La Universidad de Columbia habla más sobre el uso de chatbots de IA para apoyo emocional.
FUENTE: Universidad de Aarhus, comunicado de prensa, 23 de febrero de 2026