El riesgo ético de la IA: "Los plagios, más difíciles de detectar, pero siguen siéndolo"

La más conocida ChatGPT ha sumado 10 millones de usuarios diarios en 40 días, Instagram tardo casi un año en lograr ese mismo objetivo

00:00

Escucha la crónica de Diego Pinilla sobre los riesgos y problemas éticos de la Inteligencia artificial

Diego Pinilla

Madrid - Publicado el - Actualizado

6 min lectura

La inteligencia artificial (IA) es el presente y el futuro de la tecnología, y según los expertos va a transformar profundamente la sociedad. La popularidad de herramientas como los motores de búsqueda o los navegadores de los coches se queda corta con la explosión que ha supuesto la llegada a finales de noviembre de aplicaciones como ChatGPT. En 40 días ha sumado 10 millones de usuarios diarios, algo que Instagram tardó 355 días en lograr. Un impacto que ha sorprendido incluso a los expertos como Álvaro Barbero, Director de Inteligencia Artificial en el Instituto de Ingeniería del Conocimiento: “ChatGPT ha llegado muy pronto a tener varios millones de usuarios, algo muy sorprendente en cualquier aplicación que pudiera estar apareciendo ahora. Es un crecimiento muy fuerte y eso es porque a la gente le ha impactado mucho”.

Según los expertos consultados por COPE, estas herramientas son, sin duda, un salto tecnológico útil, pero no exento de riesgos incluso éticos.

Gracias a las diferentes aplicaciones desarrolladas mediante esta inteligencia se está ayudando a automatizar tareas repetitivas, a mejorar la atención médica -al permitir una monitorización más efectiva de la salud- y a resolver problemas complejos de manera más eficiente.

“Ya hay pocos aspectos de nuestra vida que no tengan Inteligencia Artificial en algún punto. Desde que nos levantamos hasta que nos acostamos ya hay una aplicación que nos dice que hemos dormido menos de lo normal y que deberíamos irnos a dormir antes. Pero al final, toda esta implantación de la IA yo creo que sirve principalmente tanto para darnos nuevas experiencias y nuevas posibilidades como una ayuda imprescindible para muchos temas de nuestro día a día”, como los navegadores de los coches o los motores de búsqueda de internet.

Sin embargo, las creaciones que está contribuyendo a generar esta Inteligencia Artificial abren en paralelo muchos desafíos éticos relacionados con la falta de transparencia de las herramientas o el plagio.

Aplicaciones más relevantes

En el mundo tecnológico han surgido multitud de aplicaciones y herramientas que utilizan la Inteligencia Artificial. Una de las más destacadas del 2022 ha sido Dall-e, desarrollada por la empresa OpenAI y capaz de crear imágenes mediante texto. Aunque en un principio fue de pago, después fue abierta al público. Sin embargo, la sensación del momento es ChatGPT. Desde el lanzamiento de esta aplicación a finales de 2022 ha tenido un gran impacto alcanzando los 20 millones de usuarios en el último mes. Ha sido entrenada para mantener conversaciones con cualquiera y es capaz de entender lo que le pregunten con precisión respondiendo de manera coherente. Son textos naturales, muy exactos y es muy complicado saber que los genera una inteligencia artificial. Aun así, puede tener errores como cualquier modelo de IA. Además, para este 2023 se está hablando mucho de MusicLM, una herramienta capaz de crear composiciones musicales de varios minutos con coherencia interna que ha sido desarrollada por Google. La aplicación de momento no se ha abierto al público, pero muchos músicos tienen ganas de probar el sistema.

Problemas éticos

La Inteligencia Artificial sigue perfeccionándose y ya está dando lugar a herramientas más complejas y capaces de elaborar desde un informe coherente, con ChatGPT, a una imagen inédita, con Dall-e. Está claro que facilitan nuestras vidas, pero también han generado un debate ético en el que cada vez están participando más expertos. Uno de ellos es Álvaro: “El problema ético está en si yo cojo eso y digo que lo he hecho yo, atribuyéndome la autoría completamente. La clave está en que ahora el plagio no lo hago de otra persona, sino que directamente es una herramienta la que me genera esto. Entonces, el problema está más bien en la actitud de la persona, si se está comportando de manera ética o no”.

En el caso del ChatGPT, el problema está en que la herramienta puede generar redacciones, disertaciones o poesías que los usuarios podrían atribuirse como propios.

“Donde está el problema ético es en si yo cojo eso y digo lo he hecho yo, y me atribuyo la autoría completamente. Es un plagio un poco más difícil de detectar, pero sigue siéndolo”.

Con Dall.e se generan imágenes que hasta ese momento no existían, que no son fotos, sino una invención del programa. Las obras son el resultado de un proceso que extrae el arte original de internet y lo transforma en nuevo arte, pero sin dar ningún tipo de compensación por ello a los artistas originales. Por eso mismo, algunos de los bancos de imágenes más grandes del mundo -como Shutterstock o Getty Images- han prohibido estas imágenes en sus portales.

“Dall.e 2 ha provocado un impacto muy grande en el mundo del arte porque claro, hay mucha gente que se ha registrado en una web de artistas y subía imágenes generadas por Dall.e 2 diciendo que las habían pintado ellos, incurriendo en un problema ético y engañando sobre su portfolio. Hay muchos artistas con una postura muy negativa ante el uso de esta tecnología, y todo motivado por el comportamiento poco ético que han tenido algunas personas al utilizar estas tecnologías”.

Y otra aplicación que continúa en desarrollo y que todavía no se ha lanzado al mercado, en parte por su planteamiento ético, es MusicLM. Sus creadores han asegurado que todavía tienen cuestiones éticas importantes que están valorando antes de hacer público el proyecto. Todo porque esta aplicación, al haber sido entrenada escuchando y analizando más de 250.000 horas de música, podría tener resultados melódicos suficientemente parecidos a las composiciones originales como para considerarse un plagio.

Tipos de IA y uso diario

La Comisión Europea distingue dos tipos de IA. El primero es el software. Es decir, asistentes virtuales, motores de búsqueda o sistemas de reconocimiento de voz y rostro. Y el segundo es la IA integrada, que se refiere a robots, drones o vehículos autónomos. En el día a día prácticamente todos utilizamos esta inteligencia en múltiples actividades y hay mucha gente que no es consciente de ello. Por ejemplo en la publicidad, para crear recomendaciones personalizadas en función del comportamiento en línea de cada usuario; las traducciones automáticas, con la generación automática de subtítulos; en los vehículos, tanto en la conducción autónoma como en los navegadores integrados en muchos coches; en la lucha contra la Covid-19, proporcionando datos útiles para poder rastrear el estado de la propagación de la enfermedad.

En definitiva, los programas basados en Inteligencia Artificial han dado un salto enorme en 2022 y van a seguir multiplicándose exponencialmente en 2023, aumentando su especialización y ofrenciendo una utilidad real a trabajadores y estudiantes. Sin embargo, debe hacerse un uso responsable y no aprovechar los avances tecnológicos en beneficio propio para engañar u ocultar la realidad.

Además, el premio a la palabra del año 2022 en los medios de comunicación de la FundéuRAE ha sido la expresión 'Inteligencia Artificial'.

Programas

Último boletín

17:00H | 6 NOV 2024 | BOLETÍN