"Si va a tener impacto en la persona, que decida el ser humano": Sara Lumbreras sobre la IA en el G7

La directora de la cátedra de Ciencia, Tecnología y Religión en la Universidad Pontificia Comillas, nos ha explicado los detalles del discurso del Papa en la cumbre internacional

Redacción Religión

Publicado el - Actualizado

4 min lectura

Esta tarde, se ha producido un evento histórico: el Papa Francisco ha participado en la cumbre del G7, la cita anual que reúne a los líderes de siete de las economías más avanzadas del mundo y que se está celebrando ahora mismo en la región de Apulia, al sur de Italia.

Francisco ha intervenido para hablar de Inteligencia Artifical, un asunto sobre el que el Pontífice se ha pronunciado durante multitud de ocasiones. De hecho, como quien dice, él mismo fue 'víctima' de esta IA con una fotografía,en la que salía con un abrigo plumas blanco.El Papa pide una regulación ética pues asegura que esta herramienta puede ser útil, pero también 'perversa' si se distorsiona con ella la realidad.

El Pontífice, en un evento para la historia

En 'La Linterna de la Iglesia' hemos tenido oportunidad de hablar con Sara Lumbreras, directora de la cátedra de Ciencia, Tecnología y Religión en la Universidad Pontificia Comillas y quien nos ha dado más detalles sobre el discurso del Papa en este importante evento de las principales potencias mundiales y sobre los retos que se le presentan al Vaticano con esta nueva tecnología. Sara apuntaba que el Papa ha recalcado en su discurso “El gran potencial de la IA, que es ambivalente y a la que llama instrumento fascinante y la necesidad de distinguir entre las elecciones de la máquina basadas en un valor estadístico y la decisiones humanas que se realizan, como dice él, por razones, y en libertad. Destaca la necesidad de prohibir las armas autónomas porque ningún sistema podría decidir acabar con la vida de un ser humano”.

El concepto de 'algor - ética' un concepto en el que el Papa ha hecho hincapié

Un concepto muy relacionado con la IA es la 'algor- ética' un hecho en el que el Pontífice ha hecho mucho hincapié y que hace años se pasaba por alto al concebirse como algo matemático. Con respecto a este concepto, Sara añadía que “Existen formas éticas o problemáticas de algoritmos y de como utilizarlas. El elemento principal es la transparencia... lo que hace el algoritmo no es decidir, porque no es responsable ni comprende lo que está haciendo. Entonces, por ello, siempre necesitamos que si la decisión va a tener un impacto sobre la vida de las personas, el que decida sea un ser humano”.

Además, Sara también nos ha contado que muchos algoritmos se presentan como 'cajas negras', que, en principio, nos dan una elección pero no sus motivos. Por lo tanto, no deciden y tampoco dejan decidir al humano, pues la única información que proporcionan es la decisión final. “Hay que tener algortimos que den razones, que llamamos transparentes, explicables, interpretables... Pese a lo que se ha dicho muchas veces, de que los algortimos de 'caja negra' eran la única posibilidad para la IA, esto no es cierto... Hay muchos algortimos transparentes y se está trabajando en este campo de manera muy intensa”.

"Ricos en tecnología pero pobres en humanidad"

El Vaticano se ha convertido, como apunta nuestra experta, 'en un faro' que alumbra las necesidades éticas de esta tecnología puntera y de toda la sociedad.Debemos recordar que es una herramienta que está afectando también al ámbito educativo, pues cada vez más alumnos hacen uso del famoso 'Chat GPT' y ya se está trabajando en diferentes guías éticas para el uso de esta inteligencia en las aulas.

“Estamos a riesgo de hacernos 'ricos en tecnología pero pobres en humanidad'. Es clave ahí seguir promoviendo guías y procesos más concretos... por otro lado, tenemos todas las oportunidades que pueden aprovecharse desde la Iglesia en su conjunto, desde la mejora de la gestión para hacerla más eficiente, al uso de la IA en un contexto de pastoral, que también tiene muchas oportundiades”.

Es más necesaria que nunca, una regulación ética que establezca los límites

La propuesta que lanza nuestra experta para desarrollar una inteligencia artificial que no se convierta en un perjuicio es clara: desarrollar tecnología que sea más fácil de controlar y que esté alineada con los principios del bien común. “Necesitamos aprender a incorporar las tecnologías de manera responsable, para aprovechar sus beneficios y evitar los problemas que puedan surgir y que ya están surgiendo. Un impacto muy preocupante es el de la polarización o la posibile falta en el desarrollo de capacidades que puede suponer usar la IA generativa... ¿Qué va a pasar con capacidades como la redacción de textos o la comprensión en alumnos que hayan entrado en el sistema educativo en esta era post GPT y que no acaben siendo un lastre para nuestra humanidad?"..

Estos son algunos de los problemas a los que nos enfrentamos con la IA y por eso es ahora, más necesaria que nunca, una regulación ética que establezca los límites que nos permitan hacer un buen uso de esta nueva tecnología.