Los posibles escenarios que traerá la IA en un futuro, a debate: "Hay que enfocarse en sus aplicaciones"

Se celebra estos días en Reino Unido una cumbre internacional sobre los riesgos de la inteligencia artificial y los modelos y sistemas que pueden aparecer de ahora en adelante

00:00

Los posibles escenarios que traerá la IA en un futuro, a debate:"Hay que pensar en sus aplicaciones"

Redacción La Tarde Belén Collado

Publicado el - Actualizado

3 min lectura

En el mismo lugar donde los aliados se reunieron durante la II Guerra Mundial para descodificar los códigos nazis de la máquina enigma, en el Bletchley Park, en Inglaterra, se celebra estos días una cumbre internacional sobre los riesgos de la inteligencia artificial y los posibles escenarios que se nos pueden dibujar de ahora en adelante. El objetivo del encuentro es analizar los peligros que presenta la nueva tecnología y acordar medidas preventivas. Ahora mismo, los expertos en la materia prevén cuatro posibles escenarios:

1. La inteligencia artificial avanzada realizará tareas complejas que requieran planificación y razonamiento. Se espera que para 2030, la combinación de diversos modelos de IA, basados en código abierto, dé lugar a sistemas autónomos de altas capacidades. ¿Qué puede pasar? Que estos sistemas abiertos no incorporen suficientes mecanismos de seguridad.

2. Sistemas autónomos que sustituyan a los humanos en ciertas tareas. Los más optimistas dicen que no vamos a perder estos puestos de trabajo, sino a reubicarnos para hacer hueco a la IA, pero ¿estará todo el mundo preparado para ello?

3. Nace una superinteligencia. También en torno a 2030, sería un sistema capaz de llevar a cabo cualquier tarea intelectual al alcance de un humano: memoria a largo plazo, capacidad de razonamiento, capacidad de complementar tareas complejas... Podría funcionar de manera autónoma, con poca o ninguna supervisión humana. ¿Qué riesgos hay en este escenario? Estas superinteligencias podrían saltarse las medidas de seguridad con las que fueron diseñadas, y los expertos dejarían de reconocer cuando el sistema intenta engañarlos, o bien si oculta información al saber que está siendo evaluado.

4. La inteligencia artificial termina decepcionando. Al final los desarrolladores no logran innovar más allá de las capacidades de la IA actual de aquí a 10 años. ¿Sería posible quedarnos estancados?

Desde luego, para ver estos cuatro posibles escenarios hay que esperar a que pase el tiempo, pero sin bajar la guardia. Eso es precisamente lo que busca esta cumbre sobre IA que reúne a representantes de 29 países, entre ellos, EEUU, China, India o miembros de la Unión Europea como Alemania, Francia o España.

Los Beatles estrenan nueva canción gracias a la IA

Aunque parezca increíble, la inteligencia artificial también es protagonista de una de las noticias del día. Este jueves se ha estrenado mundialmente una canción inédita de los Beatles. Está escrita y cantada por John Lennon, producida por Paul MacCartney, George Harrison y Ringo Starr, y un quinto Beatle: la inteligencia artificial.

“Este es un ejemplo perfecto para argumentar que la tecnología tiene usos muy buenos y usos muy malos”, apunta Miguel Ángel Román, doctor en Inteligencia Artificial, Ingeniero de Telecomunicaciones e Informática. En este sentido, aboga por regular esos malos usos que se puede hacer de cualquier sistema de IA. “En este debate de la seguridad y de los riesgos de la inteligencia artificial hay que enfocarse en sus aplicaciones y no en la tecnología en sí”.

Opina este experto que la cumbre que se está celebrando en Reino Unido está tratando aspectos positivos y por primera vez estamos adelantándonos a posibles problemas que puedan surgir en el futuro, y eso está bien. Sin embargo, “a la hora de regular la IA no podemos basarnos en la especulación”, indica Román.

Regular casos de uso en concreto antes que la propia tecnología

En este sentido, considera que es más conveniente basarse en casos de uso, como los “deepfakes”. “Si se hubiera enfocado desde el principio en la regulación de casos de uso de esta tecnología, probablemente tendríamos ya una ley o un reglamento de deepfakes que podría haber evitado los problemas que hemos visto, por ejemplo, con las niñas de Extremadura”, explica el doctor en Inteligencia Artificial.

En cuanto al miedo que suscita la IA en algunos ámbitos e, incluso por parte de sus propios creadores y desarrolladores, Miguel Ángel Román afirma que es lógico que se tema en algunos modelos futuros, pero también es probable que estos supuestos no se lleguen a cumplir. “Cuando vemos que la tecnología da un salto, lo extrapolamos a que pasara dentro de cinco años y provoca miedo, pero muchas veces estos saltos no se siguen produciendo”.

Programas

Último boletín

12:00H | 23 NOV 2024 | BOLETÍN