Investiga I+D+i

Noticias:

Bienvenidos al foro Investiga. Estamos preparando todo y en breve podréis compartir ideas, información ...

IA en el Tribunal de Justicia

IA en el Tribunal de Justicia
« en: 28 Febrero , 2024, 10:47:56 am »
¿Sabíais que se había llegado a proponer que la IA evaluara y aplicara la justicia en los casos judiciales?
Según la UNESCO, se piensa que esta podría aumentar la eficiencia y la precisión de los abogados, y que esto podría beneficiar a los abogados, los clientes y la sociedad. También, los jueces podrían ser ayudados por la IA para la redacción de las decisiones tomadas en el Tribunal. A esta tendencia se le denomina “automatización de la justicia”
Hay algunos que opinan que la IA en general podría hacer un sistema judicial más justo, pero otros destacan aspectos como la falta de transparencia y neutralidad de esta, y preocupaciones sobre la puesta en riesgo de los derechos humanos.
En sí, el uso de la IA en el tribunal ayudaría bastante y lo facilitaría pero, ¿sería justo, y haría que algunos trabajos se perdieran? Lo más importante, ¿Sería efectivo?
Me gustaría abrir un debate sobre esto, y saber vuestras opiniones al respecto. La ética siempre me ha resultado muy interesante, y agradezco poder compartir un tema tan interesante como este.
Muchas gracias por vuestra atención,
Teresa ❤️

Re:IA en el Tribunal de Justicia
« Respuesta #1 en: 02 Marzo , 2024, 13:33:56 pm »
Hola

Interesante noticia.

Tema a tener en cuenta... los sesgos tanto de los programadores de las IA, como lo de los datos que las alimentan.

Por ejemplo, en EEUU, la comunidad afroamericana tiene mayor porcentaje de personas en prisión que las de otros orígenes. Este dato puede servir para sesgar las sentencias en vista de los antecedentes.

Para saber más del tema, con nivel académico, este interesante artículo de 2022.

"The ethics of Artificial Intelligence: An analysis of ethical frameworks disciplining AI in justice and other contexts of application"
https://opo.iisj.net/index.php/osls/article/view/1366/1628

Un saludo

Pedro



Re:IA en el Tribunal de Justicia
« Respuesta #2 en: 11 Marzo , 2024, 15:07:20 pm »
Hola Teresa,

Primero, le quería agradecer por esta interesante aportación.

Es verdad que la IA tiene problemas éticos, pero es lógico que va a tener un gran impacto en la justicia.

Por ejemplo, se desea emplear dicha tecnología para tomar decisiones judiciales, que utilicen el aprendizaje automático, que tiene como objetivo influenciar la toma de decisiones judiciales. Aún así, no se sabe si estas serían más justas o si está realizando lo correcto. ¿Cuál es vuestra opinión? Cosas similares han sido empleadas por países como Estados Unidos, para decidir sobre la prisión preventiva, utilizándola para calcular los riesgos y “puntúa” el acusado según las probabilidades de cometer otra vez algún delito.  Este tipo de programas también puede afectar negativamente al juez, por ejemplo él piensa que debería darse la libertad, pero el puntaje objetivo es alto. ¿Qué haríais en esta situación? ¿Está la IA complicándonos la vida? Hay que tener en cuenta que uno de los objetivos de la IA es facilitar nuestra vida.

En mi opinión, dicha aplicación es útil para encontrar más información sobre el delito, y obtener una opinión y recomendación hecha que está principalmente basada en datos. Pero, ¿Podría esta recomendación ser contradictoria y sesgada?

Link: https://www.unodc.org/dohadeclaration/es/news/2019/06/artificial-intelligence_-a-new-trojan-horse-for-undue-influence-on-judiciaries.html

Espero vuestras respuestas,

¡Hasta la próxima!

Laura

Re:IA en el Tribunal de Justicia
« Respuesta #3 en: 14 Marzo , 2024, 20:50:11 pm »
Hola Teresa,

Primero, le quería agradecer por esta interesante aportación.

Es verdad que la IA tiene problemas éticos, pero es lógico que va a tener un gran impacto en la justicia.

Por ejemplo, se desea emplear dicha tecnología para tomar decisiones judiciales, que utilicen el aprendizaje automático, que tiene como objetivo influenciar la toma de decisiones judiciales. Aún así, no se sabe si estas serían más justas o si está realizando lo correcto. ¿Cuál es vuestra opinión? Cosas similares han sido empleadas por países como Estados Unidos, para decidir sobre la prisión preventiva, utilizándola para calcular los riesgos y “puntúa” el acusado según las probabilidades de cometer otra vez algún delito.  Este tipo de programas también puede afectar negativamente al juez, por ejemplo él piensa que debería darse la libertad, pero el puntaje objetivo es alto. ¿Qué haríais en esta situación? ¿Está la IA complicándonos la vida? Hay que tener en cuenta que uno de los objetivos de la IA es facilitar nuestra vida.

En mi opinión, dicha aplicación es útil para encontrar más información sobre el delito, y obtener una opinión y recomendación hecha que está principalmente basada en datos. Pero, ¿Podría esta recomendación ser contradictoria y sesgada?

Link: https://www.unodc.org/dohadeclaration/es/news/2019/06/artificial-intelligence_-a-new-trojan-horse-for-undue-influence-on-judiciaries.html

Espero vuestras respuestas,

¡Hasta la próxima!

Laura

Buenas, Laura

Gracias por tu reflexión tan interesante. Aunque la idea de utilizar el aprendizaje automático para ayudar en la toma de decisiones judiciales es intrigante,  también plantea preocupaciones sobre la imparcialidad y la equidad del proceso. Como mencionas, existe el riesgo de que los algoritmos utilizados en estos sistemas estén sesgados o produzcan resultados injustos. Por esto, es crucial que examinemos de cerca cómo se entrenan y validan los algoritmos.

En cuanto a la situación que planteas sobre el juez que se ve influenciado por el puntaje generado por el sistema de IA, creo que es un dilema complejo. Por un lado, la IA puede proporcionar información valiosa y análisis de datos que pueden ayudar al juez a tomar decisiones más informadas. Sin embargo, también es importante que el juicio del juez no sea completamente influenciado por el algoritmo, y que se le deje espacio para utilizar su propio criterio al considerar otros aspectos importantes del caso.

Aunque es cierto que la IA puede ser una herramienta útil en el sistema judicial, creo que hay que utilizarla con precaución y siempre estar atentos a sus limitaciones y sesgos. ¿De qué manera se podría entrenar a una IA equitativa y transparente?

Un saludo

Mar

Re:IA en el Tribunal de Justicia
« Respuesta #4 en: 14 Marzo , 2024, 22:29:26 pm »
Hola Teresa,

Primero, le quería agradecer por esta interesante aportación.

Es verdad que la IA tiene problemas éticos, pero es lógico que va a tener un gran impacto en la justicia.

Por ejemplo, se desea emplear dicha tecnología para tomar decisiones judiciales, que utilicen el aprendizaje automático, que tiene como objetivo influenciar la toma de decisiones judiciales. Aún así, no se sabe si estas serían más justas o si está realizando lo correcto. ¿Cuál es vuestra opinión? Cosas similares han sido empleadas por países como Estados Unidos, para decidir sobre la prisión preventiva, utilizándola para calcular los riesgos y “puntúa” el acusado según las probabilidades de cometer otra vez algún delito.  Este tipo de programas también puede afectar negativamente al juez, por ejemplo él piensa que debería darse la libertad, pero el puntaje objetivo es alto. ¿Qué haríais en esta situación? ¿Está la IA complicándonos la vida? Hay que tener en cuenta que uno de los objetivos de la IA es facilitar nuestra vida.

En mi opinión, dicha aplicación es útil para encontrar más información sobre el delito, y obtener una opinión y recomendación hecha que está principalmente basada en datos. Pero, ¿Podría esta recomendación ser contradictoria y sesgada?

Link: https://www.unodc.org/dohadeclaration/es/news/2019/06/artificial-intelligence_-a-new-trojan-horse-for-undue-influence-on-judiciaries.html

Espero vuestras respuestas,

¡Hasta la próxima!

Laura

Buenas, Laura

Gracias por tu reflexión tan interesante. Aunque la idea de utilizar el aprendizaje automático para ayudar en la toma de decisiones judiciales es intrigante,  también plantea preocupaciones sobre la imparcialidad y la equidad del proceso. Como mencionas, existe el riesgo de que los algoritmos utilizados en estos sistemas estén sesgados o produzcan resultados injustos. Por esto, es crucial que examinemos de cerca cómo se entrenan y validan los algoritmos.

En cuanto a la situación que planteas sobre el juez que se ve influenciado por el puntaje generado por el sistema de IA, creo que es un dilema complejo. Por un lado, la IA puede proporcionar información valiosa y análisis de datos que pueden ayudar al juez a tomar decisiones más informadas. Sin embargo, también es importante que el juicio del juez no sea completamente influenciado por el algoritmo, y que se le deje espacio para utilizar su propio criterio al considerar otros aspectos importantes del caso.

Aunque es cierto que la IA puede ser una herramienta útil en el sistema judicial, creo que hay que utilizarla con precaución y siempre estar atentos a sus limitaciones y sesgos. ¿De qué manera se podría entrenar a una IA equitativa y transparente?

Un saludo

Mar

Buenas noches a todos,

He de decir que la pregunta y debate que plantea Mar, es muy interesante, y que definitivamente es una cuestión que constantemente se presenta y se discuta a la hora de hablar sobre dicha tecnología.

Posibles técnicas correctivas son:

Pre-Processing: la transformación de variables segados en otro conjunto no sesgado, en el cuál el segundo sera el analizado. Utilizando representation learning para hacer dicha conversión.

In-Processing: un modelo analítico capaz de optimizar los errores y el fairness.

Post-Processing: es la optimización y la modificación de los resultados sesgados del modelo analítico. Por ejemplo, mitigando o eliminado los sesgos tras la obtención de datos.

Estas son solo algunas maneras, pero harían que la IA se convirtiera en una herramienta más útil, verídica y eficiente.

Además se me ocurrió que el algoritmo no supiera algunos datos, o que en algunos procesos los tapase, tal y como los “etiqueta”. Pero, a la vez, esto podría perjudicar la predicción.

En conclusión, es necesario asegurar que la IA con tenga sesgos e impactos discriminatorios, de dicha manera impactará de una forma más positiva a nuestra sociedad.

Os adjunto el link que incluye una detalla explicación sobre este tema: https://telefonicatech.com/blog/como-conseguir-una-inteligencia-artificial-justa

Preguntas: ¿Estáis de acuerdo con lo comentado anteriormente? ¿A veces es necesario saber datos (como género) para funcionar de forma más efectiva, si sí, sería la IA en este caso discriminatoria?

Espero vuestras respuestas,

¡Hasta la próxima!

Laura