Investiga I+D+i

Noticias:

También podéis seguirnos en Twitter @Investiga_I_D_i

Mensajes recientes

Páginas: 1 ... 7 8 [9] 10
81
Noticias / Re:Lo que va más allá de la Inteligencia Artificial
« Último mensaje por Rodrigo-1650-kpnA4K en 14 Marzo , 2024, 21:33:50 pm »
Hola Clara,

La IA se ha convertido exactamente en lo que tú has dicho: una herramienta crucial. Facilita y hace más rápidos los procesos, esto es mucho más evidente en las áreas de investigación al tener mucha complejidad y ser muy extensas con muchos datos que aportar.

Aun así, si la inteligencia artificial desapareciese, no sería el apocalipsis. Todavía no está lo suficientemente extendida, al contrario que internet. La vida de la población continuaría con normalidad prácticamente sin cambio alguno. En los lugares en los que sería más grave su ausencia sería en sectores especializados, por ende, el mundo seguiría girando y se continuaría investigando y trabajando al igual que se ha hecho siempre, lo único que cambiaría sería la velocidad con la que se hace, siendo más lenta que ahora.

Esta es solo mi opinión y me gustaría también conocer las vuestras ¿Qué pensáis?

Ya solo queda un último esfuerzo, Rodrigo Silva.
Colegio Blanca de Castilla.
82
Hola Teresa,

Primero, le quería agradecer por esta interesante aportación.

Es verdad que la IA tiene problemas éticos, pero es lógico que va a tener un gran impacto en la justicia.

Por ejemplo, se desea emplear dicha tecnología para tomar decisiones judiciales, que utilicen el aprendizaje automático, que tiene como objetivo influenciar la toma de decisiones judiciales. Aún así, no se sabe si estas serían más justas o si está realizando lo correcto. ¿Cuál es vuestra opinión? Cosas similares han sido empleadas por países como Estados Unidos, para decidir sobre la prisión preventiva, utilizándola para calcular los riesgos y “puntúa” el acusado según las probabilidades de cometer otra vez algún delito.  Este tipo de programas también puede afectar negativamente al juez, por ejemplo él piensa que debería darse la libertad, pero el puntaje objetivo es alto. ¿Qué haríais en esta situación? ¿Está la IA complicándonos la vida? Hay que tener en cuenta que uno de los objetivos de la IA es facilitar nuestra vida.

En mi opinión, dicha aplicación es útil para encontrar más información sobre el delito, y obtener una opinión y recomendación hecha que está principalmente basada en datos. Pero, ¿Podría esta recomendación ser contradictoria y sesgada?

Link: https://www.unodc.org/dohadeclaration/es/news/2019/06/artificial-intelligence_-a-new-trojan-horse-for-undue-influence-on-judiciaries.html

Espero vuestras respuestas,

¡Hasta la próxima!

Laura

Buenas, Laura

Gracias por tu reflexión tan interesante. Aunque la idea de utilizar el aprendizaje automático para ayudar en la toma de decisiones judiciales es intrigante,  también plantea preocupaciones sobre la imparcialidad y la equidad del proceso. Como mencionas, existe el riesgo de que los algoritmos utilizados en estos sistemas estén sesgados o produzcan resultados injustos. Por esto, es crucial que examinemos de cerca cómo se entrenan y validan los algoritmos.

En cuanto a la situación que planteas sobre el juez que se ve influenciado por el puntaje generado por el sistema de IA, creo que es un dilema complejo. Por un lado, la IA puede proporcionar información valiosa y análisis de datos que pueden ayudar al juez a tomar decisiones más informadas. Sin embargo, también es importante que el juicio del juez no sea completamente influenciado por el algoritmo, y que se le deje espacio para utilizar su propio criterio al considerar otros aspectos importantes del caso.

Aunque es cierto que la IA puede ser una herramienta útil en el sistema judicial, creo que hay que utilizarla con precaución y siempre estar atentos a sus limitaciones y sesgos. ¿De qué manera se podría entrenar a una IA equitativa y transparente?

Un saludo

Mar
83
Buenos días Julio,
En cuanto a tu segunda pregunta, me he informado y he de decir que sí que existen limitaciones sobre la IA. El criterio usado para determinar si un sistema es de riesgo es el criterio jurídico. Este se basa en el daño para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho. Los sistemas IA clasificados de alto riesgo conllevan obligaciones claramente establecidas.
Las regulaciones incluyen, por lo que he podido leer, los llamados «sandbox» regulatorios y las pruebas en el mundo real.
Os dejo el siguiente link por si os queréis informar más sobre el tema:https://mascalvet.com/incidencia-ley-ia-misiones-y-actividades-espaciales/
Un saludo, Javier de la Puerta
84
Noticias / Diez ejemplos reales de IA en la sanidad
« Último mensaje por Marta-1866-kNQF0X en 14 Marzo , 2024, 10:21:15 am »
Buenos días, aprovecho el último día para poner esta interesante noticia.
https://www.philips.es/a-w/about/news/archive/standard/news/blogs/2022/20221124-10-real-world-examples-of-ai-in-healthcare.html
Suerteee :D
85
Los datasets de imágenes biomédicas los podéis sacar de cualquiera de los bancos de imágenes de big data que hay en internet.

Por si alguien va muy perdido/a, aquí le dejo una excelente plataforma, llamada Kaggle, donde podrá encontrar muchos datasets de diferentes tipos de ámbitos, incluido el biomédico.
Yo he usado esta herramienta junto con la anterior para crear una pequeña prueba de modelo de predicción de enfermedades a partir de imágenes biomédicas.

Enlace directo a la herramienta Kaggle: https://www.kaggle.com/

Espero que os sea de ayuda.
Un saludo,
Marc Gomis.
86
Noticias / Re:¿Puede la IA predecir tu edad y tiempo vital utilizando radiografías?
« Último mensaje por Marc-4286-j1GF2Q en 13 Marzo , 2024, 19:29:58 pm »
Buenas,

Hay una parte de ética y moral que no estamos teniendo en cuenta.
Si bien es muy interesante que con la ayuda de la IA se puedan conocer estos datos tan intrigantes, no sé hasta qué punto es ético poder predecir cuanto tiempo vivirá una persona, incluso si se tiene su consentimiento.
¿Podría esta información cambiar radicalmente la forma en las que las personas vivirían sus últimos años? ¿Para bien o para mal?

Me gustaría poder debatir esto con algún/a expert@ en ética.

Un saludo,
Marc Gomis,
Escola Pia de Sarria Calassanç, Barcelona.
87
Noticias / Re:Procesador de imágenes biomédicas gratuito y revolucionario
« Último mensaje por Marc-4286-j1GF2Q en 13 Marzo , 2024, 19:24:39 pm »
Asimismo me gustaría plantear la siguiente pregunta: ¿Es necesario una formación básica de los trabajadores en inteligencia artificial de cara a futuros avances de la IA o de cara a futuros problemas como por ejemplo un error en el sistema que afecte a las conclusiones del diagnóstico de una imagen biomédica?

Buenas tardes, Irene,

El artículo que proporcionas es muy interesante, y después de leerlo y reflexionar sobre la pregunta que planteas, mi respuesta es que si, una formación básica a estos trabajadores sería indispensable por varios motivos, uno de los principales es el que tú misma mencionas, si se produce algún error en el sistema que afecte al veredicto de la IA, es indispensable que los técnicos sepan manejar la situación pese a no dedicarse al ámbito tecnológico.

Aparte de esto, también creo que hay una parte de ética y moral que hemos de tener en cuenta aquí. Se están tratando las vidas de la gente, por lo que hablamos a veces de situaciones complicadas, es por eso, que en mi opinión, me parece poco ético que profesionales que usan como segunda opinión la IA, no tengan, al menos, conocimientos y nociones básicas para poder dar esa imagen de seguridad y de que todo está bajo control.

Decidme vosotros que opináis.

Un abrazo,
Marc Gomis,
Escola Pia de Sarrià Calassanç, Barcelona.
88
Ética en la Ciencia y la Tecnología / Re:Principales dilemas de la ética de la IA
« Último mensaje por ngela-1650-VRz78H en 13 Marzo , 2024, 19:23:44 pm »
Buenos días:
Hoy viendo las noticias ha aparecido una noticia que me ha parecido bastante trascendental y me gustaría compartirla.

Resulta que la UE a aprobado la primera regulación internacional de la IA. En esta ley se pueden ver 4 niveles de riesgo según como respete los derechos humanos. Esta normativa será implantada en todos los países de la UE a partir de 2026.

Estos 4 niveles constan de:
-Riesgo mínimo: Afortunadamente la mayoría de modelos de IA pertenecen a este grupo, porque siguen de forma correcta los códigos de conducta impuestos.

-Riesgo específico para la transparencia: Se les exigirá una serie de obligaciones que deberán cumplir.
-Alto riesgo: dentro están los sistemas que vulneren la seguridad o derechos de los ciudadanos.
-Riesgo inadmisible: Los sistemas que entran en este grupo quedan totalmente prohibidos, ya que significa que no respetan los derechos humanos.

A mi parecer es una noticia de verdadera importancia, ya que es un gran paso para que se sigan respetando siempre los derechos fundamentales de las personas.

https://www.antena3.com/noticias/tecnologia/que-regula-nueva-ley-inteligencia-artificial_2024031365f187b8ab79d800019e341e.html

Espero que os pueda servir.
89
Hola buenas,

Me dirijo a tod@s mis compañer@s de foro para compartir este descubrimiento de una herramienta gratuita y online que puede ser muy útil en vuestros trabajos de procesamiento de imágenes biomédicas con IA.

La plataforma se llama “Teachablemachine” y podéis cargar vuestros datasets de imágenes biomédicas (u otros tipos de imágenes) para crear un modelo de aprendizaje y predicción de resultados. Los datasets de imágenes biomédicas los podéis sacar de cualquiera de los bancos de imágenes de big data que hay en internet.

El enlace a la página web en cuestión es este: https://teachablemachine.withgoogle.com/train/image
¡Es muy práctico, ya que no necesitáis registraros en ningún lado y nada más entrar a la página web ya podéis empezar a crear vuestros modelos!

Espero haberos ayudado y que os haya servido,

Un saludo.
90
¡Hola a todos!

Este debate me parece interesantísimo. En cuanto a la primera pregunta sobre como está acelerando la IA los avances en exploración espacial, creo que no es una pregunta de cuanto lo está acelerando, sino de cómo de esencial es. Por ejemplo actualmente la mayoría de rovers que se encuentran explorando Marte usan IA para su navegación de manera autónoma, y es algo crucial, porque manejarlos desde la Tierra sería una labor imposible teniendo en cuenta que la señal desde Marte tarda en llegar 8 minutos y otros 8 minutos de vuelta para ser receptada por el rover.
Por otro lado en cuanto a la pregunta de las cuestiones legales. En mi opinión creo que es necesario que se use la IA pero que siempre exista una supervisión humana, ya que aunque pueda parecer que no, la IA también puede confundirse. Y, por otro lado, la pregunta que plantea Rodrigo-1650-kpnA4K : ¿De verdad existe una forma de regulación que pueda favorecer los intereses de los gobiernos, empresas privadas y científicos de todo el mundo?
Creo que nunca existirá una forma de regulación perfecta donde se pueda favorecer por igual a gobiernos, agencias, empresas y científicos, porque siempre existirán confrontaciones y limitaciones, pero estoy seguro de que como humanidad seremos capaces de llegar a algo que nos pueda favorecer sin desacelerar los procesos de investigación con IA.

Un saludo,
Pablo
Páginas: 1 ... 7 8 [9] 10