¿Es posible una IA ética enfocada a resolver los grandes retos?

Bien diseñada y utilizada su potencial supera los riesgos

ChatGPT: Inteligencia artificial que potencia la creatividad
00:00
Carmen Labayen

Carmen Labayen explica los usos positivos de la inteligencia artificial en la cura de enfermedades como el Alzheimer o la predicción pandemias y catástrofes naturales

Carmen Labayen

Publicado el

6 min lectura

Por su capacidad para gestionar datos de forma rápida y eficiente, la Inteligencia Artificial (IA) tiene millones de usos positivos. Gracias a ella y en el futuro también a la computación cuántica avanzaremos en la cura de enfermedades como el Alzheimer o la predicción pandemias y catástrofes naturales. Tiene también interesantes usos sociales y medioambientales. Cada vez más empresas e instituciones que apuestan por usos éticos de esta tecnología para minimizar sus riesgos y que podamos beneficiarnos de todas sus ventajas.

Como observatorio para impulsar buen diseño y el uso social y ético de la IA, trabaja en España OdiseIA, cuya misión es velar de manera independiente por el uso responsable de los sistemas de IA por parte de las empresas e instituciones públicas y privadas. Su presidenta Idoia Salazar explica a COPE que tanto entidades como empresas “quieren y tienen cada vez más interés en usar la IA y, en particular desde el boom de la IA generativa, de ChatGPT, también están promoviendo formación a sus empleados en el buen uso de esta tecnología”.

Según la última “Encuesta de Uso de TIC y comercio electrónico en las empresas” del Instituto Nacional de Estadística y publicada en 2024, solo el 12 por ciento de las empresas de más de 10 trabajadores en España utilizaban la IA generativa. Sin embargo, el último estudio de Randstad Research de enero de 2025 eleva al 46 por ciento las compañías que la emplean en nuestro país, sobre todo para análisis y la predicción, para la optimización de tareas administrativas y para la automatización de los procesos productivos.

Otras utilidades económicas que incentivan el recurso a esta tecnología son la reducción de costes, la mejora de la eficiencia de los equipos o la posibilidad que ofrece la IA de encontrar soluciones innovadoras a problemas complejos además de poder competir con las grandes corporaciones.

Aterrizar la ética a la práctica

En OdiseIA buscan aterrizar la ética a la práctica de forma que la IA pueda usarse limitando el impacto negativo y potenciando todas las ventajas y se adaptan a las necesidades de quienes les consultan ya sea un hospital, un banco o una consultora de Recursos Humanos para diseñar una estrategia de uso responsable de la IA. Unas peticiones que, según Salazar, aumentarán tras la entrada en vigor el pasado 2 de febrero del el Reglamento Europeo de Inteligencia Artificial (RIA).

Y todo porque, según recuerda la presidenta de OdiseIA “a partir del 2 de agosto de 2026 los algoritmos considerados de alto riesgo-que son los que tienen impacto sobre los derechos humanos de las personas (como la concesión de un crédito o una contratación) van a tener que cumplir sí o sí una serie de requisitos éticos si no quieren ser multados”.

Desde el 2 de febrero en la UE están prohíbidos los sistemas considerados de riesgo inaceptable como los destinados a manipular el comportamiento de las personas, que exploten sus vulnerabilidades o que las clasifiquen socialmente. Tampoco estará permitido el uso de esta tecnología para el reconocimiento de emociones en entornos laborales. Las sanciones, que se aplicarán desde el próximo verano, pueden conllevar multas de hasta los 35 millones de euros o el 7 por ciento del volumen de negocio anual de la empresa infractora.

Según Anabel Arias, responsable de derechos digitales de la Federación Española de Consumidores y Usuarios (CECU), con este Reglamento comunitario los derechos fundamentales de los ciudadanos estarán mejor protegidos. A su juicio, la normativa que es un paso más hacia la innovación responsable en la Unión Europea. Considera con todo que el horizonte fijado para el establecimiento de las sanciones es demasiado lejano en el tiempo sin contar con que parte de la normativa no será fácil de aplicar y que muchos algoritmos potencialmente nocivos se escapan de lo acordado.

Defienden la prohibición del reconocimiento biométrico, que fue finalmente descartada por los socios comunitarios, y piden que se cree un Registro de Algoritmos en España para que la ciudadanía tenga más información sobre cuáles son los que se utilizan y como apoyo a qué tipo de decisiones y puedan saber por ejemplo si en su caso se ha recurrido o no a ellos y con qué resultado y tipo de supervisión posterior a cargo de la empresa o la administración.

¿Cómo lograr un uso ético de la IA?

De poco o nada sirven los discursos apocalípticos, la IA ha llegado para quedarse como complemento que no debemos humanizar ni tampoco pensar que tiene la verdad absoluta. Es una herramienta fundamental y necesitamos usarla para resolver los retos del mundo actual pero hay que tener cuidado con:

  • La posible discriminación de las personas. Según subraya Salazar “los problemas no los genera la máquina sino las personas que no han entrenado bien la máquina correctamente lo que hay que hacer es diseñar bien el sistema desde el principio para evitar cualquier posible sesgo que condicione las respuestas que obtenemos o diseñar herramientas para corregirlas a posteriori”.

  • El exceso de confianza, los algoritmos no son infalibles. La supervisión humana es fundamental en los sistemas de IA de alto riesgo cuyo impacto recae en cuestiones que tienen que ver con nuestros derechos fundamentales. Las máquinas no pueden ser multadas ni enviadas a la cárcel y los responsables últimos de la decisión seremos nosotros.

  • La falta de transparencia. No debemos validar la respuesta de un algoritmo si no nos muestra el proceso que ha seguido para llegar a esa conclusión.

¿Puede contribuir la IA a crear un mundo mejor?

Solo 4 de cada 10 españoles considera que la IA tendrá un impacto positivo en sus vidas en el plazo de 5 años, el 38 por ciento de las mujeres y el 51 por ciento de los hombres, según refleja la segunda edición de la Encuesta Funcas sobre Inteligencia Artificial. El 44 por ciento reconoce tener un conocimiento limitado o nulo de esta tecnología frente al 53 por ciento en 2023. El 6 por ciento afirma tener un conocimiento avanzado, el doble que el año anterior y el 14 por ciento la utiliza con frecuencia, el triple que en 2023.

A pesar de que conocer, entender y saber usar la IA es necesario para poder participar en un debate informado sobre su papel en la sociedad del futuro y para la comprensión del impacto de sus aplicaciones prácticas, actualmente todavía, según este informe, todavía el 15 por ciento de la ciudadanía admite que no ha oído nunca hablar de ella.

Para Salazar, “debemos dejar de ver la IA con miedo y concebirla como una forma de aumentarnos como humanos para buscar soluciones mucho más precisas ante los retos que tenemos por delante como la cura del cáncer o la predicción de desastres medioambientales y también contribuir a ayudar las personas más vulnerables de la sociedad”.

Con el objetivo de poner la IA al servicio de los que más lo necesitan, en OdiseIA, con el apoyo de la Fundación Pablo VI y de Google.org, han puesto en marcha el primer hackaton internacional para colectivos vulnerables que tendrá lugar en Madrid del 25 al 27 de febrero. Un concurso por equipos abierto a perfiles de todo tipo para desarrollar soluciones de IA innovadoras para abordar problemáticas sociales concretas, entre ellas, la soledad de los mayores, el acceso de los inmigrantes a recursos públicos o la descarbonización: “creo firmemente que sumando fuerzas y talento podemos construir una IA confiable”, resume Salazar.

Herrera en COPE

Herrera en COPE

Con Carlos Herrera

Lunes a viernes de 06:00h a 13:00h

Programas

Último boletín

12:00H | 3 MAR 2025 | BOLETÍN