¿La Unión Europea prohibirá ChatGPT? Todos los detalles de la nueva normativa de inteligencia artificial

El Europarlamento ha fijado su posición y la regulación queda ahora en manos del Consejo. Se espera que se apruebe antes de terminar 2023

00:00

Así es la regulación de la inteligencia artificial aprobaba por el Parlamento Europeo

David G. Triadó

Publicado el - Actualizado

4 min lectura

ChatGPT es probablemente la herramienta de inteligencia artificial más conocida, pero ya existen aplicaciones para realizar cada vez más funciones. Algunos expertos hablan de una Cuarta Revolución Industrial y, como cualquier revolución, plantea grandes oportunidades, pero también grandes retos legales y éticos.

El pasado mes de junio, el Parlamento Europeo aprobó la propuesta de Reglamento de Inteligencia Artificial, para regular a nivel comunitario los usos de esta tecnología. Tras el visto bueno de la cámara legislativa, ahora ya sólo falta la negociación entre los estados en el seno del Consejo para su aprobación definitiva, que se espera que se produzca antes de terminar este año 2023.

En 'Lo que viene' te contamos los aspectos más destacadas de la nueva normativa.

Tres niveles de riesgo

El texto legal pactado en el Europarlamento establece una clasificación de los usos de la inteligencia artificial en tres categorías: riesgo inaceptable, alto y limitado.

Las aplicaciones de la inteligencia artificial que se encuadren en el riesgo inaceptable estarían vetadas en la Unión Europea. Serían todos esos sistemas que supongan una amenaza para la población. De este modo, estarían prohibidas las aplicaciones para la manipulación del comportamiento de personas o grupos vulnerables. Sería un ejemplo un juguete que fuese capaz de conversar con los niños y acabar induciéndolos a tener conductas que pongan en riesgo su vida o su integridad física.

Los sistemas de puntuación social, prohibidos

También estarían en la categoría de riesgo inaceptable los sistemas de puntuación social, el 'social scoring', consistente en clasificar a las personas en función de su comportamiento, su estatus o sus características personales. Tampoco estarían permitidos los sistemas policiales predictivos. Se trataría de esas aplicaciones de la inteligencia artificial que implicasen que, cuando un individuo reuniese una serie de características, como, por ejemplo, tener un determinado color de piel, una forma de vestir específica, vivir en un barrio en concreto o contar con un determinado nivel de estudios, ya se pudiese presuponer que es un delincuente en potencia y establecer en su contra una serie de medidas discriminatorias.

Un aspecto que suscitó debate en el seno de la Eurocámara es el veto a los sistemas inteligentes de identificación biométrica en tiempo real y a distancia, tal y como confesó en rueda de prensa el eurodiputado Brando Benifei: “Había una voluntad de transformarlo en una herramienta política, pero hemos establecido una salvaguardia para evitar este riesgo de vigilancia masiva”.

El objetivo de la prohibición consiste en evitar que alguien vaya por la calle y haya cámaras que le identifiquen a través de sus rasgos biométricos, que registren su actividad, sus horarios, adónde va y con quién, y que luego la administración pública o empresas privadas usen esa información para tomar decisiones.

“En China se han instalado miles de camaras y se identifica a todos los ciudadanos y sus movimientos”

Se trata de una situación que ya se da actualmente en China, según denuncia Mario Yáñez, experto en tecnología de ‘La Linterna’ de COPE. “Se han instalado miles de cámaras por todo el país, se identifica a todos los ciudadanos y sus movimientos hasta el punto de que desarrollan un programa de ingeniería social brutal para decidir a qué segmentos de población benefician más”, asegura el especialista.

Finalmente esta aplicación de la inteligencia artificial también ha quedado englobada entre los usos prohibidos por la normativa. Sí se prevén, no obstante, algunas excepciones a este veto, como cuando se cuente con autorización judicial para emplear esta tecnología en los casos en que se haya cometido un delito grave. En este caso, se podrían analizar a posteriori las imágenes de videovigilancia grabadas usando herramientas de reconocimiento facial para tratar de identificar a los presuntos implicados.

Se permite que la IA controle una central nuclear

Siguiendo con los otros dos niveles de riesgo que prevé la propuesta de reglamento acordada en el Parlamento Europeo, el riesgo alto englobaría esos sistemas que afecten a la seguridad o a los derechos fundamentales, como, por ejemplo, que una inteligencia artificial gestione una central nuclear. No estaría prohibido, pero haría falta una autorización previa y una supervisión posterior.

En cuanto a las aplicaciones con un riesgo limitado, un ejemplo serían los deepfakes, la generación de contenidos falsos como ese anuncio reciente de una cerveza protagonizado por Lola Flores décadas después de su muerte. La obligación legal en este caso sería básicamente de transparencia, es decir, hacer conocedor al usuario en todo momento de que lo que está viendo es una creación sintética y que no se le intente engañar.

¿Qué pasará con ChatGPT?

Las herramientas de generación de texto, de imágenes o sonidos artificiales se pueden usar con propósitos muy distintos y que podrían encajar, según la casuística, en niveles de riesgo diferentes. Por eso existe en la propuesta de regulación una subcategoría que se llama de “modelo fundacional”, donde encajarían esas herramientas, como ChatGPT, que tienen una finalidad general y con las que se pueden hacer cosas muy distintas.

Lo que sí deberían hacer aplicaciones como ChatGPT es cumplir con una serie de requisitos en su funcionamiento: dejar claro que el contenido que genere ha sido creado por una inteligencia artificial, estar configurado de modo que no pueda crear contenido ilegal y ofrecer un listado de las fuentes con derechos de autor que ha usado para proporcionar sus respuestas.

Programas

Último boletín

13:00H | 3 NOV 2024 | BOLETÍN