El peligroso uso que le puede dar tu expareja a la IA: "Suele ocurrir..."

Un bufete coruñés alertan sobre el uso vejatorio de los 'deepfakes' para humillar y vejar a las mujeres

00:00
Noela Bao

Crónica Deepfakes A Coruña

Noela Bao

Coruña - Publicado el

3 min lectura

Ver al Papa con un plúmax, a David Broncano detenido o a Tom Cruise contando su supuesta vida diaria en Tiktok. La Inteligencia Artificial nos hace creer cosas increíbles, y los avances en la tecnología han permitido generar imágenes y vídeos más que realistas. Pueden ser paisajes surrealistas o, como en estos casos, famosos en situaciones graciosas o inéditas.

Cuando hablamos de personas, nos referimos a los deepfake. Falsificaciones profundas, ultrasuplantaciones, para entendernos. “Un contenido que puede ser imagen, audio o vídeo, que se genera por IA” y que “puede llevar a una persona a pensar erróneamente que lo que está viendo es real”, apunta Carla Cendán, del bufete coruñés Pintos & Salgado. Esto “se hace con tal precisión que se puede engañar a otra persona, incluso a los algoritmos”

La mayor parte de los deepfakes se utilizan para entretenimiento, pero también puede haber un uso malintencionado. “Se han utilizado en fraudes en línea, desinformación, engaños, extorsión, y más específica y reiteradamente se usan en porno de venganza”. No se trata solo de personas “que están en el foco público, sino que “el foco se está centrando en mujeres tanto anónimas como conocidas”.

Ataques a mujeres Y NIÑAS

De hecho, lo que detecta un informe de este bufete es que 9 de cada 10 creaciones de deepfake atentan contra las mujeres. Y, aunque Taylor Swift o Rosalía han tenido que desmentir que eran ellas las que estaban en escenas comprometidas que se han difundido por la red, el problema es cuando la tecnología desnuda a una ex por venganza o a una compañera de clase. Lo que se da en llamar pornografía de venganza, es decir, usar la imagen de la mujer para vejarla.

“Suele ocurrir que una pareja o amante usa esta tecnología por no haber consentido una relación o haberla roto” y genera este tipo de contenido. A la mujer, advierte la abogada, “se la instrumentaliza y se la reduce a un mero cuerpo” con el objetivo de “vejarla, humillarla, herirla o degradarla” tanto “en lo personal, como en lo laboral”

Y lo peor es cuando las mujeres son menores de edad, como lo ocurrido en Almendralejo (Badajoz) donde se difundieron imágenes que 'desnudaban' a 22 menores de edad con la IA. Este peligro del uso de la tecnología para “desnudar a niñas cuyas imágenes vestidas se han subido a Internet”,  aumenta "el potencial de revictimización”, apunta Cendán. 

lO QUE LA LEGISLACIÓN NO CUBRE

El promover solo la eliminación de los montajes, con, la regulación actual no cubre los problemas que generan  ni repara el daño generado, ya que “la eliminación no resuelve los efectos perjudiciales del contenido que tiene” ni “restaura” la reputación de la víctima, asegura la letrada. Además, no todas las plataformas lo consideran un contenido de desinformación.

La IA se revela, pues, como una aliada de una nueva violencia: la violencia digital, contra la que hay que actuar de manera más contundente. “Es muy necesario una legislación mucho más específica, rápida y eficaz”, concluye la Carla Cendán.

Incide en que, si alguien es víctima de un deepfake que no desea, lo primero que hay que hacer es acudir a la policía. Otra de las fórmulas es contactar con la Agencia Española de Protección de datos para intentar retirar ese contenido vejatorio de la red.

Escucha en directo

En Directo COPE A CORUÑA

COPE A CORUÑA

En Directo COPE MÁS A CORUÑA

COPE MÁS A CORUÑA

Herrera en COPE

Herrera en COPE

Con Carlos Herrera

Lunes a viernes de 06:00h a 13:00h

Programas

Último boletín

17:00H | 28 MAR 2025 | BOLETÍN