La IA atraviesa cada vez más el mundo laboral, pero no siempre se utiliza con prudencia. Así ocurrió recientemente durante un juicio en San Diego (EE.UU.) cuando descubrieron que los casos en los que se basaba un fallo eran ficticios y habían sido generados por la inteligencia artificial.
Con US$20.000. Cómo la IA ayudó a un hombre a construir una empresa de US$1800 millones
Tal como describe The San Diego Union-Tribune, luego de que una pareja del condado de San Diego se separara, iniciaron una disputa legal para determinar la custodia y el régimen de visitas de Kyra, el perro que antes tenían en común. Luego de presentar varios casos, el juez falló a favor de la mujer y le concedió todos los derechos, denegando las peticiones que había hecho su exmarido.
Pero la historia cuenta con un giro inesperado en los hechos: el hombre apeló la decisión judicial, y en el proceso descubrió que los casos en los que se basaba el fallo eran ficticios o irrelevantes para esa disputa.

“Como ilustra este caso, es igualmente importante que los funcionarios judiciales y el personal de los tribunales que no utilizan inteligencia artificial generativa verifiquen las citas contenidas en las órdenes propuestas que les presentan los abogados”, escribió posteriormente el Tribunal de Apelación del 4º Distrito, División 1.
Uno por uno. Los impuestos que deben pagar los que usan cripto en la Argentina
Aunque este tribunal reconoció que el fallo se basaba en contenido inventado por la IA, se negó a revocar la decisión original del juez. El panel señaló que los abogados tendrían que haberlo detectado con anticipación y que era posible que el juez hubiera llegado a la misma conclusión, más allá de los casos ficticios. Sin embargo, la abogada que usó la IA fue sancionada con una multa de US$5000.
No es la primera vez que se registra un caso de este tipo en la justicia. Recientemente, un abogado recibió una sanción de la Corte Suprema de Colombia por haber utilizado IA y haber incluido citas jurisprudenciales inexistentes. Aunque inicialmente aseguró que las referencias jurisprudenciales fueron fruto de un “error de transcripción”, finalmente admitió que los errores provenían de un programa de inteligencia artificial con el que trabajaba “con el fin de agilizar las contestaciones y los trámites”.
Un año atrás, esta vez en Nueva York, un hombre sorprendió a los jueces de la División de Apelaciones de la Corte Suprema cuando se presentó a un juicio laboral con un abogado creado con inteligencia artificial. Y en este caso, sus acciones también tuvieron consecuencias: “El tribunal se molestó mucho. Me dieron una paliza brutal”, declaró el hombre demandado a The Associated Press.

Tiempo atrás, en junio de 2023, dos abogados de Nueva York fueron multados cada uno por US$5000, luego de usar ChatGPT, la inteligencia artificial de OpenAI, para realizar una investigación legal. Esa vez, luego de utilizar la IA, citaron como ejemplo un caso que no existía.
Para estudios contables. Dos argentinos crearon una IA que busca simplificar la liquidación de impuestos
Según informó Fox News, algo similar le ocurrió a Michael Cohen, abogado personal formal del presidente Donald Trump, quien citó fallos judiciales ficticios inventados por IA en documentos legales. Cohen asumió la responsabilidad y explicó que no sabía que la herramienta que usaba su firma era capaz de producir alucinaciones.
No es casualidad que estos casos ocurran, si se tiene en cuenta que el uso de inteligencia artificial está cada vez más extendido. De hecho, según una investigación que divulgó recientemente la Universidad Northwestern, el 60% de los jueces federales que respondieron a su encuesta utilizan al menos una herramienta de IA en su trabajo.













