
El viernes pasado se publicó en el Semanario Judicial de la Federación una tesis aislada (registro digital 2031010) que establece por primera vez los parámetros que deben observar los órganos jurisdiccionales cuando utilicen inteligencia artificial (IA) en la impartición de justicia. Aun cuando la IA ya ha sido analizada por algunos juzgadores en México, este precedente es particularmente relevante pues en esta ocasión, la IA no fue el objeto de estudio judicial, sino que se utilizó como herramienta auxiliar para juzgar.
Destaca también que la IA fue utilizada por el tribunal de manera consciente, cuidadosa, y con el objetivo expreso de establecer parámetros para el uso de la misma en juicios futuros. Es decir, no se trató de un juez o secretario de acuerdos que simplemente consultó a ChatGPT de manera subrepticia para eludir la carga de trabajo, sino que el órgano judicial se propuso expresamente poner a prueba a la IA, bajo estricta supervisión humana, para asegurar que no se violaran derechos fundamentales.
En resumen, la tesis se emitió al resolverse un recurso de queja derivado de un juicio de amparo. Los albaceas de una sucesión de bienes interpusieron la queja, pues se encontraban inconformes con la garantía que les había fijado el juez de amparo, como condición para inscribir la demanda en el Registro Público de la Propiedad. Al resolver la queja, el Segundo Tribunal Colegiado en Materia Civil del Estado de México, utilizó la IA de manera auxiliar, únicamente para calcular el monto de la garantía, que había sido fijado de forma arbitraria, casi aleatoria, por el juez de amparo.
Después de revisar a detalle la sentencia del tribunal, me parece que, para ser un precedente innovador sobre el uso de la IA en la impartición de justicia en México, el soporte jurídico expuesto por los magistrados es bastante sólido. El tribunal retomó algunos principios éticos para el uso de la IA establecidos en instrumentos internacionales, y también aclaró que utilizaría esta herramienta exclusivamente con fines de asistencia jurídica (jurimetría) y no con la intención de sustituir las funciones del juez.
Además, en la sentencia se justificó con claridad la forma en que se habían identificado los elementos para calcular la garantía, con base en precedentes judiciales, y se precisaron las fuentes oficiales que se consultarían para obtener los valores de cada variable (valor catastral de los inmuebles, inflación anual, estadísticas judiciales sobre la duración de los juicios, entre otras). Después, el tribunal expuso que había generado un prompt para plantear la consulta a las plataformas de IA. Esto significa que no se trató de una simple pregunta abierta y descontextualizada por parte del usuario, sino que se giraron instrucciones detalladas para que los sistemas de IA arrojaran los resultados de las operaciones matemáticas, siguiendo fórmulas aritméticas estrictas. Por último, el tribunal tuvo el cuidado de llevar a cabo el mismo ejercicio por lo menos en tres distintas plataformas de IA (ChatGPT, Gemini y Grok), y después promedió los resultados arrojados por las tres, que de por sí, ya eran similares.
De acuerdo con la tesis, cuando las personas juzgadoras utilicen herramientas de IA para impartir justicia, deberán observar como elementos mínimos los principios de: a) proporcionalidad e inocuidad; b) protección de datos personales; c) transparencia y explicabilidad; y d) supervisión y decisión humanas. A pesar de que se trata de una tesis aislada todavía, esperemos que estos 4 principios sean de utilidad para mitigar los riesgos de un uso irresponsable de la IA en la impartición de justicia, en especial considerando que los jueces del bienestar que pronto tomarán sus cargos, son el resultado de una reforma judicial que priorizó la popularidad y el peso político, antes que la capacidad y preparación jurídicas.
Cortesía de El Economista
Dejanos un comentario: