Investiga I+D+i

Noticias:

Puedes conocer mejor el Programa en www.programainvestiga.org

Mensajes recientes

Páginas: 1 ... 4 5 [6] 7 8 ... 10
51
Buenas Paloma,

¡Gracias por la recomendación!

He de decir que al ser un gran cinéfilo, encuentro está clase cosas muy interesantes. La primera vez que yo tuve contacto con la nanotecnología fue con una película, Vengadores: Endgame. La parte en el principio en la que Iron-Man se pone su nuevo traje con nanotecnología fue la que despertó mi curiosidad por el tema. He de decir que desde entonces he pensado en como esto puede afectar nuestras vidas. Me parece hasta surrealista la posibilidad de acercarnos a algo similar. ¿No os parece?

¡Un saludo!

Jose Luis.
52
Noticias / Aprobación de una ley histórica para regular la IA
« Último mensaje por Laura-4125-CXWq4R en 14 Marzo , 2024, 22:55:13 pm »
Hola a todos,

En este post quiero presentaos la nueva ley hecha el miércoles pasado que limita la IA.

Recientemente la Eurocámara aprobó una ley para regular la IA, que tiene como puntos principales:

  • Salvaguardias sobre la IA de uso general
  • Límites al uso de sistemas de identificación biométrico por paréate de la seguridad
  • Prohibido la puntuación ciudadana y la IA para manipular o explotar a los usuarios
  • Derechos de los consumidores a presentar reclamaciones y recibir explicaciones
Esta ley quiere garantizar la seguridad y el respeto de los derechos.

Además, prohíbe el análisis y caracterización biométrica basados en características sensibles, también la captura de imágenes para crear bases de datos de reconocimiento facial. Lógicamente, las fuerzas tienen exenciones, pero son muy limitadas. También, explica como cualquier tipo de imagen, vide o audio artificiales manipulados son obligados a etiquetarse como tales.

*Para más información de dicha ley os adjunto el link: https://www.europarl.europa.eu/news/es/press-room/20240308IPR19015/la-eurocamara-aprueba-una-ley-historica-para-regular-la-inteligencia-artificial

En conclusión, es mi opinión que esta es la primera ley de muchas, que pondrán cada vez más límites a la IA, para proteger nuestros datos, darnos una mayor seguridad y privacidad. Aún así, esto también limita sus posibilidades, a la hora de aplicarse en varios campos, pero estoy segura que en cámaras de vigilancia para rastrear se comenzará a aplicar.  Sin embargo, me queda la duda, ¿Cómo van a controlarlo?

Os pregunto: ¿Qué beneficios puede tener esta ley? ¿Qué otras os gustaría ver en el futuro? ¿Llegará un momento en el cual la IA esté completamente llena de reglas y leyes, que su uso no será tan beneficioso, para los que no trabajamos en seguridad?

Espero vuestras respuestas,

¡Hasta la próxima!

Laura
53
Procesamiento de imágenes biomédicas mediante IA / Re:Presentaciones
« Último mensaje por Pablo-7191-nr9e1M en 14 Marzo , 2024, 22:52:01 pm »
Buenas a todos.

Me llamo Pablo Jodra y soy del Colegio Nazaret Oporto. Elegí esta línea porque me encanta la tecnología y la programación. Gracias a este trabajo he podido sentarme a trabajar en un tema que realmente me apasiona. Me está encantando el proceso de realización de mi trabajo y espero poder siguir aprendiendo y dedicando mi tiempo a investigar sobre esta línea.

Un saludo a todos.
54
Hola a todos,

Antes de que se acabe este concurso en el cual hemos podido extender y ampliar nuestros conocimientos. Pienso, que sería óptimo hablar sobre la combinación de la nanotecnología y la IA en el medioambiente.

¿Cómo afecta la IA al medioambiente?

La IA hace posible una mejor gestión de los recursos naturales, una reducción del consumo de energía y la degradación del medio ambiente.

Algunas de sus aplicaciones son:

El mantenimiento predictivo para poder predecir fallos con antelación, (ej. turbinas eólicas), reduciendo el tiempo de inactividad y prolongando la vida útil.

La IA optimiza la gestión de la energía, ya que puede evaluar los usos, ver donde se puede reducir y cuáles son innecesarios (como el consumo fantasma) y de ahí recomendar medidas.

Además, ayuda en el controlo de la contaminación, utilizando sensores y satélites para encontrarla, rastrear sus origines y reducir los niveles de producción. Por ejemplo, lo mismo que con los turbines, que la IA detecte los niveles y/o problemas que estén surgiendo antes de que estos se conviertan en unos más graves.

También en la gestión de agua y de residuos, por su capacidad de predicción e identificación de fugas (agua), y optimizar rutas e identificar oportunidades de reciclaje (residuos).

Finalmente, en la modelización climática, la IA puede analizar y realizar predicciones y recomendaciones de enormes cantidades de datos que procedan de sensores climáticos, satélites, etc.

¿Cómo afecta la nanotecnología al medio ambiente

En primer lugar, la nanotecnología ayuda en el ahorro de recursos mediante la mejora en la eficiencia del uso.

Además, puede detectar y cuantificar la presencia de agentes tóxicos en el medio ambienten.

También, se espera que diseñe materiales y objetos más sostenibles, pero sus efectos se deben de estudiar.

¿Cómo unirlas?

Después de recopilar esta breve información (hay muchas más aplicaciones), pienso que sería optimo la realización de sensores controlados por la IA que detecten agentes tóxicos en la atmósfera, para también mejorar nuestra salud, además de unos aplicados a las infraestructuras para prevenir fallos.

Os pregunto: ¿Qué otra unión se puede realizar? ¿Y que pensáis sobre la propuesta?

Links:
—IA: https://ecologica.life/es/medio-ambiente/inteligencia-artificial-y-el-cambio-climatico/#impact-of-artificial-intelligence-on-the-environment

—Nanotecnología: https://www.diclab.com.mx/noticias/avisos/item/la-nanotecnologia-en-el-medio-ambiente

Espero vuestras respuestas,

¡Hasta la próxima!

Laura
55
Hola Teresa,

Primero, le quería agradecer por esta interesante aportación.

Es verdad que la IA tiene problemas éticos, pero es lógico que va a tener un gran impacto en la justicia.

Por ejemplo, se desea emplear dicha tecnología para tomar decisiones judiciales, que utilicen el aprendizaje automático, que tiene como objetivo influenciar la toma de decisiones judiciales. Aún así, no se sabe si estas serían más justas o si está realizando lo correcto. ¿Cuál es vuestra opinión? Cosas similares han sido empleadas por países como Estados Unidos, para decidir sobre la prisión preventiva, utilizándola para calcular los riesgos y “puntúa” el acusado según las probabilidades de cometer otra vez algún delito.  Este tipo de programas también puede afectar negativamente al juez, por ejemplo él piensa que debería darse la libertad, pero el puntaje objetivo es alto. ¿Qué haríais en esta situación? ¿Está la IA complicándonos la vida? Hay que tener en cuenta que uno de los objetivos de la IA es facilitar nuestra vida.

En mi opinión, dicha aplicación es útil para encontrar más información sobre el delito, y obtener una opinión y recomendación hecha que está principalmente basada en datos. Pero, ¿Podría esta recomendación ser contradictoria y sesgada?

Link: https://www.unodc.org/dohadeclaration/es/news/2019/06/artificial-intelligence_-a-new-trojan-horse-for-undue-influence-on-judiciaries.html

Espero vuestras respuestas,

¡Hasta la próxima!

Laura

Buenas, Laura

Gracias por tu reflexión tan interesante. Aunque la idea de utilizar el aprendizaje automático para ayudar en la toma de decisiones judiciales es intrigante,  también plantea preocupaciones sobre la imparcialidad y la equidad del proceso. Como mencionas, existe el riesgo de que los algoritmos utilizados en estos sistemas estén sesgados o produzcan resultados injustos. Por esto, es crucial que examinemos de cerca cómo se entrenan y validan los algoritmos.

En cuanto a la situación que planteas sobre el juez que se ve influenciado por el puntaje generado por el sistema de IA, creo que es un dilema complejo. Por un lado, la IA puede proporcionar información valiosa y análisis de datos que pueden ayudar al juez a tomar decisiones más informadas. Sin embargo, también es importante que el juicio del juez no sea completamente influenciado por el algoritmo, y que se le deje espacio para utilizar su propio criterio al considerar otros aspectos importantes del caso.

Aunque es cierto que la IA puede ser una herramienta útil en el sistema judicial, creo que hay que utilizarla con precaución y siempre estar atentos a sus limitaciones y sesgos. ¿De qué manera se podría entrenar a una IA equitativa y transparente?

Un saludo

Mar

Buenas noches a todos,

He de decir que la pregunta y debate que plantea Mar, es muy interesante, y que definitivamente es una cuestión que constantemente se presenta y se discuta a la hora de hablar sobre dicha tecnología.

Posibles técnicas correctivas son:

Pre-Processing: la transformación de variables segados en otro conjunto no sesgado, en el cuál el segundo sera el analizado. Utilizando representation learning para hacer dicha conversión.

In-Processing: un modelo analítico capaz de optimizar los errores y el fairness.

Post-Processing: es la optimización y la modificación de los resultados sesgados del modelo analítico. Por ejemplo, mitigando o eliminado los sesgos tras la obtención de datos.

Estas son solo algunas maneras, pero harían que la IA se convirtiera en una herramienta más útil, verídica y eficiente.

Además se me ocurrió que el algoritmo no supiera algunos datos, o que en algunos procesos los tapase, tal y como los “etiqueta”. Pero, a la vez, esto podría perjudicar la predicción.

En conclusión, es necesario asegurar que la IA con tenga sesgos e impactos discriminatorios, de dicha manera impactará de una forma más positiva a nuestra sociedad.

Os adjunto el link que incluye una detalla explicación sobre este tema: https://telefonicatech.com/blog/como-conseguir-una-inteligencia-artificial-justa

Preguntas: ¿Estáis de acuerdo con lo comentado anteriormente? ¿A veces es necesario saber datos (como género) para funcionar de forma más efectiva, si sí, sería la IA en este caso discriminatoria?

Espero vuestras respuestas,

¡Hasta la próxima!

Laura
56
Noticias / Re:Lo que va más allá de la Inteligencia Artificial
« Último mensaje por Rodrigo-1650-kpnA4K en 14 Marzo , 2024, 21:33:50 pm »
Hola Clara,

La IA se ha convertido exactamente en lo que tú has dicho: una herramienta crucial. Facilita y hace más rápidos los procesos, esto es mucho más evidente en las áreas de investigación al tener mucha complejidad y ser muy extensas con muchos datos que aportar.

Aun así, si la inteligencia artificial desapareciese, no sería el apocalipsis. Todavía no está lo suficientemente extendida, al contrario que internet. La vida de la población continuaría con normalidad prácticamente sin cambio alguno. En los lugares en los que sería más grave su ausencia sería en sectores especializados, por ende, el mundo seguiría girando y se continuaría investigando y trabajando al igual que se ha hecho siempre, lo único que cambiaría sería la velocidad con la que se hace, siendo más lenta que ahora.

Esta es solo mi opinión y me gustaría también conocer las vuestras ¿Qué pensáis?

Ya solo queda un último esfuerzo, Rodrigo Silva.
Colegio Blanca de Castilla.
57
Hola Teresa,

Primero, le quería agradecer por esta interesante aportación.

Es verdad que la IA tiene problemas éticos, pero es lógico que va a tener un gran impacto en la justicia.

Por ejemplo, se desea emplear dicha tecnología para tomar decisiones judiciales, que utilicen el aprendizaje automático, que tiene como objetivo influenciar la toma de decisiones judiciales. Aún así, no se sabe si estas serían más justas o si está realizando lo correcto. ¿Cuál es vuestra opinión? Cosas similares han sido empleadas por países como Estados Unidos, para decidir sobre la prisión preventiva, utilizándola para calcular los riesgos y “puntúa” el acusado según las probabilidades de cometer otra vez algún delito.  Este tipo de programas también puede afectar negativamente al juez, por ejemplo él piensa que debería darse la libertad, pero el puntaje objetivo es alto. ¿Qué haríais en esta situación? ¿Está la IA complicándonos la vida? Hay que tener en cuenta que uno de los objetivos de la IA es facilitar nuestra vida.

En mi opinión, dicha aplicación es útil para encontrar más información sobre el delito, y obtener una opinión y recomendación hecha que está principalmente basada en datos. Pero, ¿Podría esta recomendación ser contradictoria y sesgada?

Link: https://www.unodc.org/dohadeclaration/es/news/2019/06/artificial-intelligence_-a-new-trojan-horse-for-undue-influence-on-judiciaries.html

Espero vuestras respuestas,

¡Hasta la próxima!

Laura

Buenas, Laura

Gracias por tu reflexión tan interesante. Aunque la idea de utilizar el aprendizaje automático para ayudar en la toma de decisiones judiciales es intrigante,  también plantea preocupaciones sobre la imparcialidad y la equidad del proceso. Como mencionas, existe el riesgo de que los algoritmos utilizados en estos sistemas estén sesgados o produzcan resultados injustos. Por esto, es crucial que examinemos de cerca cómo se entrenan y validan los algoritmos.

En cuanto a la situación que planteas sobre el juez que se ve influenciado por el puntaje generado por el sistema de IA, creo que es un dilema complejo. Por un lado, la IA puede proporcionar información valiosa y análisis de datos que pueden ayudar al juez a tomar decisiones más informadas. Sin embargo, también es importante que el juicio del juez no sea completamente influenciado por el algoritmo, y que se le deje espacio para utilizar su propio criterio al considerar otros aspectos importantes del caso.

Aunque es cierto que la IA puede ser una herramienta útil en el sistema judicial, creo que hay que utilizarla con precaución y siempre estar atentos a sus limitaciones y sesgos. ¿De qué manera se podría entrenar a una IA equitativa y transparente?

Un saludo

Mar
58
Buenos días Julio,
En cuanto a tu segunda pregunta, me he informado y he de decir que sí que existen limitaciones sobre la IA. El criterio usado para determinar si un sistema es de riesgo es el criterio jurídico. Este se basa en el daño para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho. Los sistemas IA clasificados de alto riesgo conllevan obligaciones claramente establecidas.
Las regulaciones incluyen, por lo que he podido leer, los llamados «sandbox» regulatorios y las pruebas en el mundo real.
Os dejo el siguiente link por si os queréis informar más sobre el tema:https://mascalvet.com/incidencia-ley-ia-misiones-y-actividades-espaciales/
Un saludo, Javier de la Puerta
59
Noticias / Diez ejemplos reales de IA en la sanidad
« Último mensaje por Marta-1866-kNQF0X en 14 Marzo , 2024, 10:21:15 am »
Buenos días, aprovecho el último día para poner esta interesante noticia.
https://www.philips.es/a-w/about/news/archive/standard/news/blogs/2022/20221124-10-real-world-examples-of-ai-in-healthcare.html
Suerteee :D
60
Los datasets de imágenes biomédicas los podéis sacar de cualquiera de los bancos de imágenes de big data que hay en internet.

Por si alguien va muy perdido/a, aquí le dejo una excelente plataforma, llamada Kaggle, donde podrá encontrar muchos datasets de diferentes tipos de ámbitos, incluido el biomédico.
Yo he usado esta herramienta junto con la anterior para crear una pequeña prueba de modelo de predicción de enfermedades a partir de imágenes biomédicas.

Enlace directo a la herramienta Kaggle: https://www.kaggle.com/

Espero que os sea de ayuda.
Un saludo,
Marc Gomis.
Páginas: 1 ... 4 5 [6] 7 8 ... 10