¿Puede un juez usar ChatGPT para resolver un caso? ¿Y un abogado redactar una demanda con ayuda de una máquina?
Aunque parezca un escenario de ciencia ficción, estas preguntas ya se discuten en universidades y tribunales de América Latina.
Y en México, un nuevo libro busca poner orden en medio del ruido: Inteligencia artificial. Fundamentos para abogados y estudiantes de Derecho, del doctor Daniel Trejo Medina, es una propuesta para que el derecho deje de mirar con recelo a los algoritmos y aprenda a dialogar con ellos.
El texto fue concebido como una herramienta para estudiantes y profesionales jurídicos que necesitan entender qué es la inteligencia artificial, cómo funciona, qué puede y qué no puede hacer en el ámbito legal.
No es un libro para programadores, ni un tratado teórico. Es un puente entre dos mundos que necesitan entenderse”, resumió el autor en entrevista con Excélsior.
Trejo ha trabajado con la Suprema Corte y otros órganos como asesor en temas de inteligencia artificial.
Desde ahí notó una preocupación recurrente: abogados y jueces empezaban a usar estas herramientas sin conocer sus límites.
Ya hay quienes utilizan ChatGPT para redactar denuncias o quejas. Pero ChatGPT no fue diseñado para eso. A veces inventa sentencias. Y el riesgo es enorme”, advirtió.
Uno de los errores es copiar modelos jurídicos pensados para otros países, dijo.
Mucho del software legal que circula está hecho para el sistema anglosajón, el common law, donde lo central son los precedentes. En México nuestro derecho es diferente: se basa en la ley y en criterios breves, llamados tesis. Si aplicas los algoritmos de otro sistema aquí, puedes tomar decisiones equivocadas que afectan derechos”, explicó.
La obra reúne años de docencia y experiencia institucional. “Me di cuenta de que faltaba un material que explicara la IA desde lo técnico, pero pensado para abogados. Sin lenguaje enredado, pero con sustento. Que sirviera tanto para el estudiante como para el ministro”, expuso.
Hay capítulos sobre algoritmos, redes neuronales, modelos de lenguaje, ética de datos, LegalTech, contratos inteligentes, predicción de sentencias, ciberseguridad, y casos reales de aplicación en América Latina.
Uno de los apartados más destacados es El mundo es plano, donde el autor analiza ocho juicios en los que la IA ya fue parte de la decisión judicial. Desde el escándalo de Avianca y ChatGPT, hasta las plataformas de predicción de sentencias en Brasil
Lo que buscamos es que el operador jurídico pueda evaluar con criterio una herramienta tecnológica. Que entienda que una IA es como una máquina de hacer tortillas: si le metes masa contaminada, te va a dar un resultado que no sirve. Por eso hay que gobernar los datos, verificar las fuentes, y tener claridad sobre cómo se entrena un algoritmo”, advirtió.
El libro plantea una pregunta provocadora: ¿la inteligencia artificial es amiga o sustituta del juzgador? La respuesta de Trejo es contundente: “Sustituir al juez, hoy, no es posible. Ni legal ni técnicamente. Pero sí puede ser una herramienta de apoyo muy valiosa”.
Entre sus beneficios menciona la posibilidad de comparar casos similares, evitar contradicciones, detectar leyes derogadas, validar normas vigentes y acelerar la impartición de justicia.
Pero también puede ser muy riesgosa si se usa mal. Si entrenas mal a los futuros abogados, el que paga es el cliente. Y en derecho, lo que está en juego no es sólo dinero: es libertad, dignidad, patrimonio”.
Si la IA va a estar presente en nuestras decisiones legales, más vale”, alertó.
También habló sobre los peligros de formar abogados sin contacto con la realidad judicial.
Hay muchos profesores que nunca han litigado y enseñan teoría como si fuera ley. Ahora imagina que esos mismos explican IA sin entender cómo funciona un algoritmo. Lo que están haciendo es malenseñar”, consideró.
Link nota original: Click Aquí