Logo de ChatGPT y OpenAI (REUTERS/Dado Ruvic)

El Tribunal Superior de Justicia de Navarra ha decidido no imponer una sanción a un abogado que presentó una querella que escrita por ChatGPT que contenía una cita legal incorrecta, basada en el Código Penal de Colombia en lugar del español. El letrado justificó el error como resultado de un manejo deficiente del sistema y presentó excusas formales al tribunal.

El fallo ha tenido en cuenta dos aspectos cruciales: por un lado, la relativa novedad del uso de tecnologías emergentes como la inteligencia artificial en el ámbito legal; y, por otro, la reacción inmediata y cooperativa del abogado al reconocer y disculparse por el error. Según la Sala, estas circunstancias atenuantes justificaron el archivo de la pieza separada sin sanción.

El uso de inteligencia artificial en derecho

Para llegar a esta decisión, los magistrados han debatido sobre el uso de tecnologías emergentes, como la inteligencia artificial, en los procesos judiciales. Consideran que estas novedades no están exentas “de importantes consideraciones éticas y legales para garantizar un uso responsable. Lo que impone una verificación adicional, puesto que la revisión y validación de los documentos legales seguirá siendo responsabilidad de los abogados para garantizar la precisión y el cumplimiento normativo”.

Para entender mejor el caso, se han apoyado en unas orientaciones publicadas por Law Society en noviembre de 2023 sobre el uso de herramientas de inteligencia artificial generativa, en las que afirmaba que “los abogados son responsables de los productos de trabajo generados utilizando soluciones basadas en la tecnología e instaba a los abogados a revisar cuidadosamente el contenido y garantizar su exactitud”.

“El Consejo de la Abogacía Europea (CCBE)también ha abordado la regulación de la inteligencia artificial en el ejercicio de la abogacía en el documento titulado “Consideraciones de CCBE sobre los aspectos legales de la inteligencia artificial” y, entre otras consideraciones, aboga por la supervisión humana efectiva en el uso de herramientas de IA en el ámbito de justicia como precondición de un sistema de justicia propio de un Estado de Derecho”, añaden.

Este uso conlleva también riesgos y un estudio realizado de enero de 2024 por Matthew Dahl advierte de algunos de ellos. El estudio encontró que las alucinaciones legales son alarmantemente prevalentes, ocurriendo entre el 69% del tiempo con ChatGPT 3.5 y el 88% con Llama 2. Además, constató que los modelos lingüísticos de gran tamaño a menudo no corrigen las suposiciones jurídicas incorrectas de un usuario en una configuración de preguntas contrafactuales, y que los modelos de lenguaje de gran tamaño (LLM) no siempre pueden predecir, o no siempre saben, cuándo están produciendo alucinaciones legales.

En la sentencia se explica también como en Estados Unidos se llegó a imponer una sanción de 5.000 dólares por el uso indebido de ChatGPT en escritos procesales en relación con el delito de ocultamiento, alteración y/o destrucción de material probatorio. Sin embargo, como relatan los magistrados, “dicho precepto no corresponde al Código Penal del Reino de España”.

”Ante la evidencia del error cometido, el querellante se ha apresurado para presentar sus “más sinceras excusas” tras haber detectado la Sala -como expusimos en el auto de inadmisión de querella- que la cita textual del precepto penal que incluía en el texto de la querella no correspondía en realidad a nuestro Código Penal sino al Código Penal de la República de Colombia”, relatan, por lo que la Sala “se inclina” en archivar el caso y no imponer ninguna sanción.