La IA promete liberar tiempo clínico, pero también plantea dilemas éticos, legales y técnicos en entornos sanitarios - (Imagen Ilustrativa Infobae)

Según un estudio publicado en la revista científica Artificial Intelligence in Medicine realizado con médicos de Países Bajos, Portugal y Estados Unidos, se identificaron cuatro enfoques principales sobre el uso de la IA en medicina.

Una postura resalta su utilidad para liberar tiempo clínico y reforzar la formación médica. Otra, exige regulaciones estrictas ante la desconfianza hacia las empresas privadas. Una tercera considera que la ética profesional basta como marco de confianza para el sector tecnológico. La última destaca la necesidad de que las herramientas sean explicables para facilitar su adopción por parte del personal médico. Estas visiones reflejan las grandes tensiones que surgen en el desarrollo ético de la IA aplicada a la atención sanitaria.

Ejemplo de este conflicto es una columna de Julia Keserű, investigadora y activista de derechos digitales húngara, publicada en la revista Noema, donde relató cómo, luego de recibir el diagnóstico de un cáncer de mama avanzado en 2021, inició una travesía médica marcada no solo por la enfermedad, sino también por el modo en que su salud, dijo, fue convertida en información digital, compartida, comercializada y vigilada.

Las tecnologías deben usarse en contextos adecuados por personas capacitadas (Imagen ilustrativa Infobae)

Así lo expresó en su artículo: “Recuerdo claramente la voz de la doctora que me llamó para decirme que tenía cáncer de mama avanzado. Era una tarde de septiembre de 2021. En medio de la conmoción, escuché palabras que me consolaron. Era tranquilizadora, su tono dulce; manejó mi dolor con la gracia de una profesional de la salud experimentada: con sabiduría, aplomo y empatía. Estaba hablando con una persona que, creía, sentía compasión por mi agonía».

A los pocos días del diagnóstico, ingresó en el funcionamiento interno de una plataforma estatal, el sistema EESZT, que le comunicaba el avance de su enfermedad mediante informes automatizados. En lugar del contacto humano, recibió datos sobre su metástasis a través de una base digital, diseñada para optimizar el tiempo de los profesionales. La experiencia profundizó su depresión y su sensación de pérdida de control personal, relató.

“Me informaban de la mayor probabilidad de mi muerte prematura… mediante una base de datos diseñada para liberar el tiempo de mis médicos”, contó la investigadora.

¿Quién ve nuestros datos?

Los incidentes de ciberseguridad pueden comprometer la integridad de sistemas públicos enteros. (Foto: Imagen ilustrativa Infobae)

El doctor Tedros Adhanom Ghebreyesus, director general de la Organización Mundial de la Salud (OMS), expresó cuando se publicó el primer informe mundial sobre inteligencia artificial (IA) aplicada a la salud de la OMS: “Como toda nueva tecnología, la inteligencia artificial ofrece grandes posibilidades para mejorar la salud de millones de personas en todo el mundo; ahora bien, como toda tecnología, también puede utilizarse indebidamente y causar daño», advirtió.

En informe de la OMS se advierte sobre el riesgo de sobreestimar las ventajas de la IA en el ámbito sanitario, sobre todo cuando esto se hace en detrimento de inversiones esenciales y estrategias de cobertura universal.

También se señala que “estas oportunidades implican desafíos éticos como el uso inadecuado de datos sensibles, sesgos algorítmicos y riesgos para la ciberseguridad, la seguridad del paciente y el medioambiente».

La OMS subraya que la IA debe ser transparente, segura y aplicada con enfoque humano, inclusivo y sostenible (Imagen ilustrativa Infobae)

Ejemplo de esto es lo que sufrió Keserű: el sistema húngaro permitía que cualquier profesional con acceso médico visualizara su historia clínica completa —incluidos tratamientos de salud mental, procesos reproductivos y antecedentes clínicos—, salvo que se modificara manualmente la configuración de privacidad. Esto ocurría bajo regulaciones como el Reglamento General de Protección de Datos (RGPD).

“Incluso con las estrictas normas de protección de datos de la Unión Europea, gran parte de mis datos de salud estaban disponibles para un gran número de personas”, aseguró.

Durante su tratamiento, la autora también utilizó herramientas privadas: una IA predictiva, ChatGPT y Google, que le ofrecían respuestas inmediatas, pero a cambio recolectaban su información personal.

Así, lo que buscaba como apoyo se transformó en una nueva vía de exposición: cada búsqueda, síntoma registrado o rutina de descanso formaba parte de un perfil digital detallado.

La industria global de datos médicos proyecta superar los 400.000 millones de dólares antes de 2032. (Imagen Ilustrativa Infobae)

Aunque Keserű reconoció beneficios del uso de la IA en salud, las advertencias eran mayores: “La recopilación masiva de datos ya está impulsando la investigación médica, por ejemplo, al revelar cómo responden los pacientes a los tratamientos, detectar enfermedades individuales de forma temprana y predecir brotes masivos”.

Pero también advirtió: “La rápida expansión de la industria de la tecnología sanitaria y el consiguiente aumento de incidentes de ciberseguridad comprometen los datos confidenciales de millones de pacientes y potencialmente ponen en peligro los servicios médicos de naciones enteras”.

Un mercado que crece sin control

Según Keserű, la industria de datos de salud está en plena expansión. “Se proyecta que el mercado de sistemas de historiales médicos electrónicos como EESZT o Epic Systems en EE. UU., desarrollados por empresas tecnológicas privadas y gestionados por entidades públicas, alcance casi los 50.000 millones de dólares para 2032, mientras que la industria de la salud móvil, que incluye aplicaciones de fitness y otras, así como dispositivos de salud a distancia, podría crecer hasta los 350.000 millones de dólares para finales de la década”.

Se propone reducir el uso de apps invasivas y priorizar plataformas con historial comprobado de privacidad(Imagen Ilustrativa Infobae)

“Nuestra disposición a entregar información sanitaria con tanta libertad no solo pone en peligro la privacidad y la autonomía individual, sino que también plantea riesgos significativos para la salud de la sociedad, dijo la experta”

Keserű también advirtió: “Cada vez más, las personas comparten intencionalmente sus experiencias de salud mental, pensamientos más profundos e impulsos suicidas en línea, y los intermediarios también comercian con esa información”.

Qué hacer frente a estos riesgos

La autora propone una reforma legislativa urgente, que no solo catalogue tipos de datos, sino que evalúe los daños potenciales derivados del uso indebido de información sensible.

“Existen maneras sencillas de ejercer un mayor control sobre sus datos y su destino”, dijo la autora y recomendó: “Limitar el uso de aplicaciones móviles que consumen muchos datos, optar por plataformas con un historial comprobado de priorizar la privacidad y considerar cómo terceros pueden acceder a los datos antes de decidir qué compartir. El almacenamiento en la nube, por ejemplo, hace que los datos personales sean más susceptibles al robo o la piratería. Al recurrir a soluciones de almacenamiento local, como discos duros controlados por el usuario, las personas pueden limitar la información que las empresas o los gobiernos pueden obtener sobre ellas».

La IA puede mejorar tratamientos, detectar enfermedades temprano y ayudar a predecir brotes. (Imagen Ilustrativa Infobae)

Por su parte. la OMS propone seis principios para un uso responsable de la inteligencia artificial en salud:

  1. Autonomía humana: Las decisiones médicas deben seguir en manos de profesionales, con respeto a la privacidad y el consentimiento informado de los pacientes.
  2. Bienestar y seguridad: La IA debe cumplir normas de seguridad, precisión y eficacia, con controles de calidad durante su diseño y aplicación clínica.
  3. Transparencia: La información sobre el desarrollo y uso de la IA debe ser accesible, comprensible y permitir un debate abierto sobre sus alcances y límites.
  4. Responsabilidad: Las tecnologías deben usarse en contextos adecuados por personas capacitadas, con mecanismos para reclamar y corregir daños ocasionados por decisiones automatizadas.
  5. Equidad: La IA debe garantizar acceso justo y sin discriminación, respetando los derechos humanos y promoviendo la inclusión de todos los grupos sociales.
  6. Sostenibilidad: Su desarrollo debe evaluar impactos ambientales, laborales y formativos, asegurando que responda a necesidades reales sin generar nuevas desigualdades.