Acceso estudiantes
  • Inicio
  • Noticias
  • Atractiva ponencia de UNIR, una de las universidades líderes en educación en línea en español en el mundo, sobre ‘Implicaciones éticas de la IA generativa’
Volver

Atractiva ponencia de UNIR, una de las universidades líderes en educación en línea en español en el mundo, sobre ‘Implicaciones éticas de la IA generativa’

La conferencia fue impartida por el Dr. Juan Ignacio Rouyet, profesor de IA de la Universidad Internacional de La Rioja (institución que forma parte de la alianza educativa del grupo PROEDUCA a la que pertenece InterNaciones).

El departamento de Innovación de la Escuela Superior de Ingeniería y Tecnología (ESIT), perteneciente a la Universidad Internacional de La Rioja (UNIR), organizó recientemente la Masterclass ‘Implicaciones éticas de la IA generativa’, a cargo del Dr. Juan Ignacio Rouyet, profesor especializado en la ética aplicada a la IA.

El ponente de la UNIR (institución que forma parte de la alianza educativa del grupo PROEDUCA a la que pertenece InterNaciones y es una de las líderes en educación en línea en español en el mundo) es doctor en Informática e Ingeniero de Telecomunicación. También es Senior Manager en la consultora Eraneos, en estrategia digital, y presidente del foro de pensamiento We The Humans para una inteligencia artificial ética. Entre otras obras, ha publicado el libro ‘Estupidez Artificial’ sobre una visión ética de la IA.

Durante la sesión, Rouyet destacó cuál fue uno de los principales objetivos de su disertación: ofrecer un método para poder tomar decisiones éticas sobre la IA. “Detrás de las decisiones éticas, hay procesos y ciertos métodos que permitan adoptarlas en el marco de la IA generativa. Si vamos a tomar decisiones éticas sobre la inteligencia artificial, primero hay que saber de qué estamos hablando”, dijo.

Por ello, comentó los elementos de los que está compuesto ChatGPT. “Los ingredientes son fórmulas matemáticas. A cada palabra, ChatGPT le asigna un conjunto de números (vectores) entre 0 y 10, y a cada palabra le asigna un cierto valor. Lo que hace es jugar con los valores. Con palabras similares, hay valores / vectores similares”.

En esta línea, aclaró: “La IA generativa comienza a jugar y aplicar relaciones de valores y de todas las palabras que ponen los usuarios, utilizando una fórmula matemática. identificar palabras claves. Es decir, ChatGPT no hace magia, sino que aplica fórmulas matemáticas”.

masterclaass Durante su exposición, el experto explicó las implicaciones éticas de la IA generativa.

Tras referirse al proceso de la IA generativa para crear imágenes, el ponente definió a la IA como “la capacidad de un sistema para simular procesos de pensamiento humanos (para lo cual utiliza las matemáticas)”.

Después abordó el tramo principal de su disertación: los retos éticos de la IA generativa. En este sentido, advirtió de los riesgos que debemos afrontar ante la expansión de esta tecnología disruptiva. Un ejemplo claro es las deepfakes (la inteligencia artificial, en determinados casos, es capaz de engañar de una manera ‘casi’ perfecta, que resulta difícil de discernir si es verdadera o falsa).

“Existen ciertas herramientas, como Deepware o Turnitin, que permite detectar deepfakes o contenidos falsos que están humanizados. Esto aplica para casos en los que estudiantes usan ChatGPT para realizar trabajos de fin de másteres, por ejemplo. Y hay herramientas incluso para identificar deepfakes en vídeos. La IA también permite identificar engaños creados por la propia IA”, aseveró.

El sesgo, otro riesgo de la IA

Asimismo, se refirió al sesgo como otro riesgo en el uso de la IA. Al mismo lo definió como la “aparición de resultados que están distorsionados respecto a la realidad y pueden ser potencialmente perjudiciales”. Esto también se puede evitar, aunque es más complejo como usuarios. Pero hay herramientas que permiten ver por qué la Inteligencia Artificial toma diferentes decisiones. Hay metodologías que permiten determinar cuando un sistema dice algo, tienen distorsiones por sesgos, que apelan a lo que se llama ‘explicabilidad del modelo”, expresó.

Posteriormente, habló de otro riesgo en el uso de la IA: las alucinaciones. “Se trata de respuestas que no parecen estar justificadas por sus datos de entrenamiento. Muchos, al dominar una materia, dan por cierto datos o información errónea”. Para resolver estas cuestiones, es determinante y clave la supervisión humana, hay que revisar siempre lo que nos da la IA generativa.

La alteración del resultado es otro riesgo: “Existe la posibilidad de que un tercero incluya un elemento añadido a la hora de que ChatGPT nos ofrezca información. Esto puede darse si se logra eludir las medidas de seguridad para generar tipos específicos de resultados”, aseveró. Y ante este caso, aseveró: “La validación de fuentes externas es recomendable siempre en estos casos”.

Más allá de estas cuestiones, el experto destacó que existe un riesgo cada vez mayor y persistente sobre el uso de la IA: “Los valores que transmite la IA. No es neutral porque transmite valores; por ello debemos tenemos sumo cuidado con esta cuestión”, subrayó.

Hacia el final de su intervención, habló de los pasos para ser éticos con la IA generativa, y la ética aplicada, señalando estos puntos: “1.Determinar claramente el fin específico que legitima el uso de la IA en una actividad. 2. Indagar los principios dentro la moral cívica de la sociedad en la que vives. 3. Conocer de forma clara y precisa cómo está actuando la inteligencia artificial. 4. Dejar al usuario tomar decisiones, en función de sus virtudes, principios éticos y ponderando las consecuencias que la IA puede tener para él”, concluyó.

Puedes ver la Masterclass completa, en este enlace:

https://www.youtube.com/watch?v=owdF2ye4iVs