Hola Teresa,
Primero, le quería agradecer por esta interesante aportación.
Es verdad que la IA tiene problemas éticos, pero es lógico que va a tener un gran impacto en la justicia.
Por ejemplo, se desea emplear dicha tecnología para tomar decisiones judiciales, que utilicen el aprendizaje automático, que tiene como objetivo influenciar la toma de decisiones judiciales. Aún así, no se sabe si estas serían más justas o si está realizando lo correcto. ¿Cuál es vuestra opinión? Cosas similares han sido empleadas por países como Estados Unidos, para decidir sobre la prisión preventiva, utilizándola para calcular los riesgos y “puntúa” el acusado según las probabilidades de cometer otra vez algún delito. Este tipo de programas también puede afectar negativamente al juez, por ejemplo él piensa que debería darse la libertad, pero el puntaje objetivo es alto. ¿Qué haríais en esta situación? ¿Está la IA complicándonos la vida? Hay que tener en cuenta que uno de los objetivos de la IA es facilitar nuestra vida.
En mi opinión, dicha aplicación es útil para encontrar más información sobre el delito, y obtener una opinión y recomendación hecha que está principalmente basada en datos. Pero, ¿Podría esta recomendación ser contradictoria y sesgada?
Link: https://www.unodc.org/dohadeclaration/es/news/2019/06/artificial-intelligence_-a-new-trojan-horse-for-undue-influence-on-judiciaries.html
Espero vuestras respuestas,
¡Hasta la próxima!
Laura
Buenas, Laura
Gracias por tu reflexión tan interesante. Aunque la idea de utilizar el aprendizaje automático para ayudar en la toma de decisiones judiciales es intrigante, también plantea preocupaciones sobre la imparcialidad y la equidad del proceso. Como mencionas, existe el riesgo de que los algoritmos utilizados en estos sistemas estén sesgados o produzcan resultados injustos. Por esto, es crucial que examinemos de cerca cómo se entrenan y validan los algoritmos.
En cuanto a la situación que planteas sobre el juez que se ve influenciado por el puntaje generado por el sistema de IA, creo que es un dilema complejo. Por un lado, la IA puede proporcionar información valiosa y análisis de datos que pueden ayudar al juez a tomar decisiones más informadas. Sin embargo, también es importante que el juicio del juez no sea completamente influenciado por el algoritmo, y que se le deje espacio para utilizar su propio criterio al considerar otros aspectos importantes del caso.
Aunque es cierto que la IA puede ser una herramienta útil en el sistema judicial, creo que hay que utilizarla con precaución y siempre estar atentos a sus limitaciones y sesgos. ¿De qué manera se podría entrenar a una IA equitativa y transparente?
Un saludo
Mar
Buenas noches a todos,
He de decir que la pregunta y debate que plantea Mar, es muy interesante, y que definitivamente es una cuestión que constantemente se presenta y se discuta a la hora de hablar sobre dicha tecnología.
Posibles técnicas correctivas son:
Pre-Processing: la transformación de variables segados en otro conjunto no sesgado, en el cuál el segundo sera el analizado. Utilizando representation learning para hacer dicha conversión.
In-Processing: un modelo analítico capaz de optimizar los errores y el fairness.
Post-Processing: es la optimización y la modificación de los resultados sesgados del modelo analítico. Por ejemplo, mitigando o eliminado los sesgos tras la obtención de datos.
Estas son solo algunas maneras, pero harían que la IA se convirtiera en una herramienta más útil, verídica y eficiente.
Además se me ocurrió que el algoritmo no supiera algunos datos, o que en algunos procesos los tapase, tal y como los “etiqueta”. Pero, a la vez, esto podría perjudicar la predicción.
En conclusión, es necesario asegurar que la IA con tenga sesgos e impactos discriminatorios, de dicha manera impactará de una forma más positiva a nuestra sociedad.
Os adjunto el link que incluye una detalla explicación sobre este tema:
https://telefonicatech.com/blog/como-conseguir-una-inteligencia-artificial-justaPreguntas: ¿Estáis de acuerdo con lo comentado anteriormente? ¿A veces es necesario saber datos (como género) para funcionar de forma más efectiva, si sí, sería la IA en este caso discriminatoria?
Espero vuestras respuestas,
¡Hasta la próxima!
Laura