El riesgo detrás del programa con inteligencia artificial que usan jueces y abogados para los juicios: "Se entrena"

El experto en tecnología Juan Diego Polo da más detalles de cómo emplean estas innovaciones que están cambiando los procesos judiciales en todo el mundo

Abogado en juicio Litigio en sala de audiencias
00:00
Poniendo las Calles

Juan Diego Polo explica cómo es el programa de inteligencia artificial que usan los jueces y los abogados, así como habla sobre los usos médicos de Grok

José Manuel Nieto

Publicado el

3 min lectura

El uso de la inteligencia artificial en el ámbito judicial está creciendo de manera exponencial, y con él surgen preocupaciones sobre los riesgos inherentes a este avance tecnológico. En Poniendo las Calles, el experto en tecnología Juan Diego Polo explicó cómo jueces y abogados en distintas partes del mundo están utilizando algoritmos para agilizar la toma de decisiones judiciales. Si bien la IA puede ofrecer ventajas significativas, también plantea graves riesgos relacionados con el sesgo, la falta de empatía y la dependencia excesiva de sistemas automáticos.

Una de las principales ventajas de incorporar IA en los juicios es la rapidez con la que los abogados y jueces pueden acceder a grandes volúmenes de información. Los sistemas de IA son capaces de analizar miles de documentos y sentencias previas en segundos, proporcionando a los profesionales del derecho ejemplos y datos relevantes que pueden ayudar a tomar decisiones más informadas.

Este acceso a la información histórica facilita la identificación de patrones en las decisiones judiciales, lo que, en teoría, debería llevar a una justicia más coherente y basada en precedentes. Sin embargo, como señala Polo, esta tecnología no está exenta de desventajas. Uno de los mayores problemas es el sesgo inherente a los algoritmos.

Fotografía conceptual sobre la justicia y la inteligencia artificial

Alamy Stock Photo

Fotografía conceptual sobre la justicia y la inteligencia artificial

Los sistemas de IA son entrenados con datos históricos, muchos de los cuales provienen de decisiones tomadas en el pasado por seres humanos. Estas decisiones no siempre fueron objetivas o imparciales, y es posible que reflejen prejuicios raciales, de género u otros tipos de discriminación. Si la IA se entrena con estos datos sesgados, puede replicar y perpetuar estas desigualdades, tomando decisiones injustas sin que los jueces o abogados sean conscientes de ello.

Este sesgo no es un problema trivial. En el ámbito judicial, un error basado en datos sesgados puede tener consecuencias graves, como la discriminación en el tratamiento de ciertos grupos de personas. Por ejemplo, si un algoritmo entrenado en un contexto donde las minorías raciales recibían sentencias más severas, el sistema podría sugerir sentencias más duras para personas de ciertas razas sin tener en cuenta la complejidad del caso específico. 

Esta es una de las grandes preocupaciones de los expertos en IA, que argumentan que se debe ser extremadamente cuidadoso al seleccionar los datos utilizados para entrenar estos sistemas. Para mitigar el riesgo de sesgo, Polo sugiere varias medidas. Una de ellas es la supervisión humana constante. Los jueces y abogados deben recibir formación especializada para entender cómo funcionan estos algoritmos y ser conscientes de sus limitaciones.

Aunque la IA puede ofrecer recomendaciones basadas en patrones, la decisión final debe recaer siempre en un ser humano, que pueda evaluar el contexto completo del caso y aplicar juicio crítico. Los jueces no deben aceptar ciegamente lo que el algoritmo les sugiere, sino usarlo como una herramienta para tomar decisiones más informadas, pero sin perder de vista el carácter humano de la justicia.

Tecnología de Derecho Digital

Alamy Stock Photo

Tecnología de Derecho Digital

Otro aspecto importante a considerar es la transparencia de los algoritmos. Los sistemas de IA utilizados en el ámbito judicial deben ser auditables y sus procesos de toma de decisiones deben ser comprensibles. Esto garantizaría que los usuarios puedan entender por qué se toma una decisión determinada, lo que aumentaría la confianza en el sistema y reduciría el riesgo de abusos.

En resumen, aunque el uso de la inteligencia artificial en los tribunales ofrece beneficios como la rapidez y el acceso a grandes cantidades de información, también conlleva riesgos significativos relacionados con el sesgo y la deshumanización de las decisiones. 

La clave está en garantizar que los jueces y abogados mantengan un papel central en el proceso y que la IA se utilice como una herramienta de apoyo, no como un reemplazo de la capacidad de juicio humana. Solo así se podrá asegurar que la justicia siga siendo justa, incluso en la era digital.

Herrera en COPE

Herrera en COPE

Con Carlos Herrera

Lunes a viernes de 06:00h a 13:00h

Programas

Último boletín

10:00H | 21 NOV 2024 | BOLETÍN