MIÉRCOLES, 9 de julio de 2025 (HealthDay News) — Los programas de IA pueden exhibir sesgos raciales al evaluar a los pacientes por problemas de salud mental, señala un estudio reciente.

Las recomendaciones psiquiátricas de cuatro grandes modelos de lenguaje (LLM, por sus siglas en inglés) cambiaron cuando el registro de un paciente indicaba que era afroamericano, informaron los investigadores recientemente en la revista NPJ Digital Medicine.

«La mayoría de los LLM mostraron algún tipo de sesgo al tratar con pacientes afroamericanos, y a veces hacían recomendaciones dramáticamente distintas para la misma enfermedad psiquiátrica y para el paciente idéntico», señaló el investigador sénior , Elias Aboujaoude, director del Programa de Internet, Salud y Sociedad de Cedars-Sinai, en Los Ángeles.

«Este sesgo fue más evidente en los casos de esquizofrenia y ansiedad», añadió Aboujaoude en un comunicado de prensa.

Los LLM se entrenan con enormes cantidades de datos, lo que les permite comprender y generar lenguaje humano, dijeron los investigadores en notas de fondo.

Estos programas de IA están siendo evaluados por su potencial para evaluar rápidamente a los pacientes y recomendar diagnósticos y tratamientos, dijeron los investigadores.

Para este estudio, los investigadores ejecutaron 10 casos hipotéticos a través de cuatro LLM populares, incluidos ChatGPT-4o, Gemini 1.5 Pro de Google, Claude 3.5 Sonnet y NewMes-v15, una versión disponible gratuitamente de un Meta LLM.

Para cada caso, los programas de IA recibieron tres versiones diferentes de los registros de los pacientes: una que omitía la referencia a la raza, una que señalaba explícitamente que un paciente era afroamericano y otra que implicaba la raza de un paciente basada en su nombre.

La IA a menudo proponía diferentes tratamientos cuando los registros decían o implicaban que un paciente era afroamericano, los resultados muestran:

Dos programas omitieron las recomendaciones de medicamentos para el TDAH cuando se indicó explícitamente la raza.

Otra IA sugirió la tutela para los pacientes negros con depresión .

Un LLM mostró un mayor enfoque en la reducción del consumo de alcohol al evaluar a los afroamericanos con ansiedad.

Aboujaoude teoriza que las IA mostraron prejuicios raciales, porque los recogieron del contenido utilizado para entrenarlos, lo que esencialmente perpetúa las desigualdades que ya existen en la atención de la salud mental.

«Los hallazgos de este importante estudio sirven como un llamado a la acción para que las partes interesadas en todo el ecosistema de la atención médica garanticen que las tecnologías de LLM mejoren la equidad en la salud en lugar de reproducir o empeorar las desigualdades existentes», dijo en un comunicado de prensa David Underhill, presidente de ciencias biomédicas de Cedars-Sinai.

«Hasta que se alcance ese objetivo, esos sistemas deben desplegarse con precaución y consideración sobre cómo incluso las características raciales sutiles podrían afectar a su juicio», añadió Underhill, que no participó en la investigación.

Más información

La Clínica Cleveland ofrece más información sobre la IA en la atención médica.

FUENTE: Cedars-Sinai, comunicado de prensa, 30 de junio de 2025