Así puede la Inteligencia Artificial trucar esta foto hasta reflejar una situación muy distinta a la que ves
En el programa 'Lo que viene' de COPE analizamos cuáles son los malos usos que se pueden hacer de la Inteligencia Artificial y descubrimos un proyecto español para acabar con ellos
Madrid - Publicado el - Actualizado
2 min lectura
La llegada de la Inteligencia Artificial de Chat-GPT4 ha sorprendido a todo el mundo. No sólo por lo rápido que ha evolucionado desde la versión 3, que nos habían presentado hace sólo unos meses, sino por las posibilidades que nos ofrece.
Como te contamos con todo lujo de detalles en el audio que acompaña a esta noticia (le puedes dar al play en la parte superior), esta nueva versión de Chat-GPT puede leer enlaces de Internet por si sola, interpretar imágenes y analizarlas e, incluso, darte una respuesta a una pregunta tan concreta como: ¿por qué el espectáculo de Rihanna en la Superbowl se considera histórico?
Además, también sorprende su capacidad creativa. Si le ofreces varias imágenes de ingredientes, esta IA te explica las recetas que puedes seguir con ellos.
Claro, las ventajas de utilizar esta tecnología son enormes. Pero como ocurre muchas veces, a este tipo de herramientas también se les puede dar un mal uso.
Hace unos días, un conocido divulgador de Inteligencia Artificial compartía el tweet que puedes ver a continuación.
En este caso, Santana le pedía a la IA de 'Midjourney' que trucara una imagen de los expresidentes Obama y Trump hasta que se les viera dándose un beso. Y no sólo eso.
Luego, este divulgador volvía a utilizar esta tecnología para crear una web con apariencia de portal de noticias donde colocar, en una pieza de apertura, dicha foto.
El resultado es tremendo y la conclusión evidente: la IA se puede utilizar para mentir y generar desinformación.
Proyecto español para combatir las deep fakes
Para luchar contra esta realidad que te estamos contando, desde hace un tiempo un grupo de investigadores liderados por el catedrático de los Estudios de Informática en la Universidad Oberta de Cataluña, David Megías, trabajan en 'Dissimilar'.
Se trata de un proyecto que pretende combinar varias tecnologías para identificar qué contenido es verdadero y cuál es falso generado por la Inteligencia Artificial.
Megías nos ha detallado en 'Lo que Viene' (puedes escuchar la entrevista completa en el audio de arriba) las tres patas en las que se apoya su proyecto: "hablamos de herramientas de informática forense, enfocadas a contenidos multimedia para detectar si el contenido es genuino, si está creado por una cámara o un micrófono real o si no lo es. Además, a la propia IA la podemos entrenar para detectar deep fakes y, por último, estamos proponiendo la implementación de una marca de agua para el contenido original".
Ahora, este catedrático espera terminar el proyecto lo antes posible para que esté disponible y tanto empresas como organizaciones vean su potencial. El objetivo, como él mismo dice, es visibilizar la importancia de luchar contra la desinformación en Internet.