El uso de la IA nos invita a repensar sobre la información bridadada (Imagen Ilustrativa Infobae)

Un camino sinuoso. Los tribunales de justicia ya han comenzado a usar herramientas de inteligencia artificial (IA) en el proceso de elaboración de algunas partes de sus resoluciones. A partir de esa situación, podemos identificar cuestiones que pueden comprometer la calidad de la obra de la Administración de Justicia.

Problemas de afuera. A veces, los problemas de los tribunales, originados en la Inteligencia Artificial, los traen los litigantes. Hace unos días, en Nueva York, en una audiencia remota, se presentó un abogado representando a la accionada. Solo una de las juezas notó algo extraño en el articulado del letrado: era un avatar diseñado por la empresa demandada. Otro caso: un abogado de Colorado se enfrentó a una suspensión de un año, después de citar jurisprudencia generada por IA en una moción presentada ante un tribunal. Y los casos se multiplican.

No debemos desesperar. Existen los mecanismos para la detección de estos sucesos.

Problemas en casa. En otras ocasiones, los problemas surgen desde el interior del tribunal, que usa Inteligencia Artificial para identificar jurisprudencia, leer y reseñar documentos o investigar en la doctrina. Todas esas actividades se han simplificado enormemente con las herramientas de Inteligencia Artificial y el tiempo para llegar a la sentencia podría acortarse muchísimo. Pero es indispensable tener mucho cuidado.

Veo un oasis. Es muy probable que el juez y su equipo tengan visiones: las alucinaciones son distorsiones que pueden presentar las herramientas de Inteligencia Artificial. Se dan cuando un modelo de lenguaje grande (LLM), a menudo un chatbot de IA generativo o una herramienta de visión por computadora, percibe patrones u objetos que son inexistentes o imperceptibles para los observadores humanos, creando resultados que no tienen sentido o son inexactos. Incluso herramientas de IA legal, a medida, alucinan con una frecuencia alarmante: los sistemas Lexis+ AI y Ask Practical Law AI generaron información incorrecta en más del 17% de los casos.

Claro es que nuestros tribunales omiten usar esas plataformas legales. Pero, a diferencia de las herramientas tradicionales de investigación jurídica, los modelos de IA generativa, como Chat GPT y Google Bard, que sí se están usando, no recuperan precedentes legales verificados. En cambio, predicen respuestas basándose en patrones estadísticos de amplios conjuntos de datos. Esto significa que, al solicitar citas de apoyo, la IA puede inventar jurisprudencia que parece real, pero que es completamente falsa. Es imprescindible chequear esas respuestas. Al margen de que los jueces no pueden delegar la decisión de los casos a una máquina, no es aceptable expresar como verdadero lo que es una construcción artificiosa y podría aportar a una cultura judicial sin base cierta.

Solo quiero que seas feliz. Hay un punto que el tribunal no debería omitir: las herramientas están diseñadas para complacer al usuario, con el que a veces establecen un vínculo de costumbre y predictibilidad.

¡Eureka! Si las herramientas están diseñadas para complacer al usuario y hacer que el camino sea más fácil y recorrerlo en el menor tiempo posible, también se corre el riesgo de que, con tal de cumplir con ese objetivo, la IA arme respuestas basadas en información obsoleta, irrelevante o precedentes revocados, por ejemplo, que darían como resultado un invento con aceptable aspecto superficial.

¿Puedo vivir sin jueces? Las decisiones judiciales deberían ser tomadas «únicamente con arreglo a la ley y la conciencia». No es así, están inevitablemente imbuidas por sesgos personales de los jueces. Influyen su personalidad, historia, ideología, hábitos, valores y estados de ánimo. Son sus “sesgos inconscientes” y, una vez que estas distorsiones se arraigan en la práctica judicial, permean todo el proceso de decisión. Debemos ponderar hasta dónde IA es un aporte y cuándo puede producirnos daño.

No puedo vivir sin jueces. Sin embargo, en el sistema judicial, los patrones “profundos” extraídos de sentencias pasadas, pueden ser perjudiciales. En lugar de mejorar la justicia, corren el riesgo de institucionalizar la discriminación que contenga una sentencia no demasiado fundada. Cuando los sistemas de IA se entrenan con sentencias judiciales pasadas, a menudo reproducen, no la imparcialidad, sino los mismos sesgos arraigados en los precedentes. Es decir, tendríamos un “juez digital” que basa sus decisiones en sentencias injustas (o, como vimos antes, desactualizadas o hasta inexistentes). En lugar de identificar y corregir errores, el algoritmo de la herramienta simplemente los codifica y refuerza. De nuevo, la tarea esencial de la decisión judicial es personal e indelegable.

Buenas prácticas. No todos los riesgos del uso de la IA fueron expuestos aquí. Es una introducción al tema, para generar debate. Tampoco la regulación del uso de la IA en los tribunales que ya empieza a trazarse, tanto en el país como en el exterior. Nos parece que mientras damos tiempo al perfeccionamiento de las herramientas, un camino recomendable para los tribunales es introducir políticas internas de uso de IA en la justicia, ofrecer talleres y capacitación sobre riesgos comunes y fortalecer la diligencia debida sobre los proveedores de IA antes de introducirlos. Y partir de la base de que la IA puede ser una herramienta de apoyo para la toma de decisiones, solo una más, y no puede —NO DEBE— sustituir al juez humano.