Un experto en tecnología advierte de cómo afectará la Inteligencia Artificial a las estafas por internet
Mario Yáñez explica en La Linterna el increíble caso de Aitana López, una influencer que no es real y que en 4 meses ha conseguido 120.000 seguidores
Madrid - Publicado el - Actualizado
4 min lectura
El experto en tecnología y colaborador de La Linterna, Mario Yáñez, advertía este martes en el programa de cómo puede afectar la Inteligencia Artificial, si sigue evolucionando al mismo ritmo, a las estafas del futuro en internet.
Y es que se ha centrado en el caso la catalana Aitana López, que no se diferencia de las tantísimas jóvenes aspirantes a 'influencer'. En poco más de 4 meses ha conseguido tener casi 120.000 seguidores, un patrocinio de 4.000 euros al mes y hasta algún novio en la red. No hace directos en Twitch y nadie ha oído su voz ni la ha visto en un vídeo, porque Aitana no existe. No es una persona: es una inteligencia artificial. “Y lo curioso, es que muchos fans no sabían, hasta hace unos días, que estaban chateando o siguiendo a un algoritmo”, explica Yáñez.
Por lo tanto, ¿qué implicaciones va a tener compartir nuestro mundo con otra especie inteligente?, ¿cómo convivir que esta nueva realidad? El experto ha respondido a todas estas preguntas.
Una influencer creada por una agencia
Aitana, al igual que algún otro avatar que hacen de modelos o influencers digitales provienen de una empresa catalana llamada “The Clueless”. Dos de sus fundadores, Diana y Rubén, con experiencia en el marketing digital y las redes sociales, tuvieron la idea de crear estos personajes aplicando IA y crear cuentas en Instagram para publicar contenidos a ver que pasaba: si captaba seguidores y si eran un posible modelo de negocio.
Se trata de un híbrido entre trabajo de creativos humanos y una inteligencia artificial que genera fotos básicamente. El proceso es que en la Agencia han escrito, como en un guion de cine, la personalidad, los rasgos, la historia, todo sobre el personaje. Luego apoyados en una IA generativa que crea imágenes, como Dall-e o Midjourney, han generado la “imagen” de Aitana. Luego, todos los días las personas generan contenido, usan la IA para generar imágenes que luego alguien retoca manualmente y las suben a Instagram con si fuera Aitana con ese contenido.
Así, la colaboradora Pilar García de la Granja preguntaba: ¿podría darse el caso de que la IA fuera realmente autónoma, hablara y usara las redes como si fuera un ser humano?
“Sin duda”, respondía Yáñez. “Ese es el futuro y ya casi una realidad”. Y es que, si en vez de crear un personaje en fotos, lo hacen en vídeo, con movimientos, gestos, etc, lo que se denomina “Deep-Fake”, como el de Lola Flores para entendernos y lo combinamos con una IA como chatGPT y con una IA generadora de voz, obtendríamos un avatar digital que sí podría generar contenidos propios, chatear o hablar con sus seguidores o hacer un directo en Twitch con su carita y todo. “Podríamos combinar varios algoritmos especializados para crear un avatar digital muy, muy creíble”, añade el experto.
El peligro de la IA para las estafas
Otro detalle que explica Yáñez es que tampoco tan difícil como la gente se imagina. “No hace falta ser programador para conseguir unos resultados aceptables: cualquiera que haya jugado con Dall-e o chatGPT lo puede atestiguar”, aclara. De hecho, hay empresas como “MetaHuman” que te venden una cara ya hecha, lo que en términos técnicos se llama “renderizada” a la que añadirle movimiento, y crear tu humano digital y por unos 50€. Si luego eres capaz de engancharla con una IA generativa, pues ya tienes tu propio Golem.
Pero, ¿todo esto es legal? “La tecnología es legal claro, como siempre lo que puede no serlo es el uso que se haga de ella”, subraya el divulgador tecnológico. “Por eso la UE está trabajando y fuerte en el nuevo reglamento regulador de la IA, aunque todavía tiene que avanzar. Por ahora todo esto son juguetes, pero el problema podría venir cuando esos avatares sean casi perfectos y sea prácticamente imposible distinguirlos de un ser humano”.
Así, uno de los puntos que propugna la directiva europea es que sepamos en todo momento si estamos interactuando con una IA o con una persona. “Pero siendo honrados, los malos no lo van a hacer porque esta puede ser la gran herramienta, con mayúscula de los hackers, la evolución más sofisticada de las estafas, el phishing o los ciberrobos” comenta Yáñez. “Si lo consiguen suplantando correos, whatsapps o llamadas, imaginad lo que se podría hacer con una IA”.
Un ejemplo concreto es un caso que ya pasa: “Hay gente que pasa horas hablando con chatGPT, al que consideran su amigo o confidente. Hay gente que se ha enamorado de SIRI o de ALEXA. Un avatar sofisticado podría crear una relación afectiva como la que tienen dos personas, pero imaginad que detrás de la IA hay un hacker, que empieza a pedir dinero, a decirte que tiene una enfermedad, que tiene que cuidar a un hijo… lo que sea. La víctima, enamorada porque tiene un novio/a en la red podría caer en la estafa del avatar. Si hay algo que puede hacer daño es hackear los sentimientos de una persona”, concluye.