Los cuatro riesgos de la inteligencia artificial para la humanidad: "No tenemos mecanismos para controlarla"

Mario Yáñez, experto en tecnología, explica en La Linterna de COPE por qué el desarrollo descontrolado de la IA podría ser una potencial amenaza para la humanidad

00:00

Las cuatro amenazas de la inteligencia artificial: "No tenemos mecanismos para detener a una IA incontrolable"

Redacción digital

Madrid - Publicado el - Actualizado

5 min lectura

Un grupo de más de 1.000 expertos en inteligencia artificial y ejecutivos de la industria tecnológica, entre los que se encuentran figuras como Elon Musk o el cofundador de Apple, Steve Wozniak, han firmado una carta en la que piden una pausa en el desarrollo de los sistemas de inteligencia artificial. Dicen que esta carrera descontrolada por desarrollar algoritmos cada vez más potentes, podría ser una potencial amenaza para la humanidad. ¿Cuáles son los verdaderos riesgos del uso indiscriminado de inteligencia artificial?, ¿Existe alguna regulación que pueda controlar este avance tecnológico?, ¿Tendremos que aprender a convivir con estos sistemas?

Mario Yáñez, experto en tecnología, explica en La Linterna de COPE qué motivación tiene este manifiesto que pretende ralentizar el desarrollo de la inteligencia artificial: “Pues como ha dicho también, José María Álvarez-Pallete, presidente de Telefónica, "no todo lo que la tecnología es capaz de hacer es bueno o socialmente aceptable". En concreto, todos se refieren a las llamadas AGI, Inteligencias Artificiales Generativas, por sus siglas en inglés, que, si siguen creciendo en potencia y se utilizan de forma descontrolada, por ambición, poder político o económico, pueden suponer un riesgo existencial para toda la humanidad”.

La evolución de estas tecnologías está siendo exponencial y el experto explica los motivos: “Primero, debido a la fuerte inversión que está recibiendo el sector. Solo en este primer trimestre de 2023 las compañías que desarrollan IAs generativas han recibido 11.000 millones de dólares, por comparar, es la misma cantidad que habían captado en los 10 años anteriores. Y en segundo lugar, por el rapidísimo avance en el desarrollo y entrenamiento de los algoritmos. Un dato: GPT3 la versión que usa chatGPT usa 175 millones de parámetros para generar texto. La versión GPT4 que ya está ahí, usa 100 billones y en tan solo unos pocos años”. La velocidad de aprendizaje de los actuales modelos de inteligencia artificial ha aumentado en un factor de 100 millones de veces en los últimos 10 años.

¿Qué tipos de amenazas pueden suponer el mal uso de las superinteligencias artificiales?

Mario Yáñez advierte de los riesgos de hacer un mal uso de estas inteligencias artificiales: “Aunque la gente piensa en Terminator y en una guerra de las máquinas contra el ser humano, cosa que no parece que vaya a ocurrir, las amenazas reales, algunas que ya son una realidad, son mucho más inquietantes. Una Super IA, descontrolada en Internet o en manos de los chicos malos, pueden contaminar todo el conocimiento y las sociedades de forma irreversible”.

El experto en tecnología diferencia estas amenazas en cuatro grupos principales: amenazas políticas o éticas, amenazas personales, legales o profesionales y contra la integridad o la vida de las personas.

Amenazas políticas o éticas

Mario Yáñez destaca que “aquí el impacto mayor estaría en llevar los modelos de fake news o deep fakes a convertirse en una amenaza para la democracia a través de campañas masivas de desinformación sistemática e indetectable, cosa que, por otro lado, ya ha ocurrido. Se están cambiando textos de libros de forma automática, generando textos de historia alterados, videos, audios, imágenes (la del Papa con un plumas blanco se ha hecho viral). Esto a gran escala sería imposible de parar”. La consultora GARTNER dijo que en este año 2023 más del 50% de la información que hay en internet sería falsa. El experto advierte que tendríamos “que crear una especie de sello o marca de autenticidad para saber cuándo un dato es verdadero o está creado por una IA, o un detector de mentiras digital: otras IAs que detecte a sus contrarias”.

Amenazas personales

Un reciente estudio realizado por el Centro de Investigación Económica Ragnar Frisch en Noruega ha concluido que “vivimos en sociedades donde ya la inteligencia no está basada en la memorización o en los aspectos matemáticos o de vocabulario que miden los test tradicionales, sino más bien que se vincula más con los recursos que se pueden encontrar de manera creciente en el mundo digital". Mario explica cómo cada vez memorizamos menos y “nos estrujamos menos las neuronas. Unas IAs avanzadas y buenas nos darán todo lo que necesitemos sin esfuerzo, y corremos el riesgo de volvernos más tontos y más vagos”.

Los cuatro riesgos de la inteligencia artificial para la humanidad: No tenemos mecanismos para controlarla

Amenazas legales o profesionales

Se lleva hablando tiempo ya de la amenaza laboral. De la perdida de empleos por causa de las IA. ¿Qué podemos decir del mundo profesional?: “Tenemos que considerar dos aspectos fundamentales. Uno el marco legal que debe regir el desarrollo y uso de estas tecnologías. Aquí el riesgo está en que siempre las leyes van muy por detrás de la tecnología y hay que acelerar el ritmo: transparencia de los algoritmos, marcas de verdad, regulación y supervisión del uso, etc. Otro problema es que la fuente de alimentación de las IA generativas son los datos: se crean a partir de los datos con los que han sido entrenadas y los que obtienen del mundo que les rodea”. Mario destaca que aquí es donde nos encontramos con un problema real, ya que no respetan la propiedad intelectual, ni la privacidad de las personas: “Tragan información y la usan indiscriminadamente. ¿A quién persigues o multas o denuncias si, por ejemplo, la IA Stable Difussion crea una imagen que está basada en un cuadro de Van Gogh y que no puede hacerlo por los derechos de autor?”.

Amenazas contra la integridad o la vida de las personas

Una inteligencia ilimitada puesta al servicio de intereses particulares puede crear armas químicas o cibernéticas en días en lo que antes se invertían meses o años”, avisa Mario Yáñez. “Un algoritmo puede desarrollar moléculas para la guerra Bacteriológica o venenos en cuestión de minutos. Se pueden crear virus informáticos que podrían paralizar los sistemas financieros o los sistemas de defensa de muchos países. En el ámbito militar, la tecnología y la inteligencia artificial se han convertido en piezas claves, no se concibe una estrategia de defensa sin estas tecnologías avanzadas”.

Para terminar, el experto en tecnología explica si es posible que se lleguen a hacer realidad todas estas amenazas. Mario explica que “algunas, a menor escala, ya son realidad, como las Fake News o los Deep fakes”. Otras están cerca si no se controla esta carrera entre las empresas creadoras de IA: “Hoy, no hay mecanismos para detener el proceso cuando una IA adquiera una autonomía incontrolable. Como decía Álvarez-Pallete: “La tecnología ya está aquí, pero no debemos dejarla sola. Es el momento, sobre todo, de las Ciencias Sociales” para decidir y determinar cuáles son los derechos y obligaciones básicas de personas y máquinas en este nuevo mundo".

Temas relacionados

Programas

Último boletín

17:00H | 21 NOV 2024 | BOLETÍN