Zoraida Callejas: "Damos un audio al algoritmo y el sistema detecta patrones e intenta cazarlos"
Entrevista a la experta en sistemas conversacionales de la Universidad de Granada y líder de la investigación en La Tarde de COPE. Analizamos como funciona este sistema.

Investigadores de la UGR diseñan un sistema para averiguar si una grabación de voz es real o falsa
Madrid - Publicado el - Actualizado
2 min lectura
En los últimos meses, se ha observado un aumento de audios creados mediante Inteligencia Artificial en las redes sociales, muchos de los cuales imitan a figuras públicas como Pedro Sánchez y el rey Felipe VI. Estos avances tecnológicos permiten generar voces sintéticas útiles como lectores de texto o asistentes virtuales, pero también pueden ser utilizados de manera perjudicial para crear audios falsos, difundir desinformación, manipular, realizar estafas telefónicas y suplantar identidades.
Para abordar este problema, investigadores de la Universidad de Granada han desarrollado un sistema innovador que puede distinguir entre un audio real y uno generado por Inteligencia Artificial. Este sistema se destaca porque no solo emplea modelos generales para detectar voces clonadas, sino que también está entrenado específicamente para identificar mensajes falsos que imitan a figuras importantes, como el Rey de España. Este avance es significativo en la lucha contra la desinformación y puede ayudar a prevenir estafas telefónicas, ya que en una llamada telefónica es muy difícil distinguir entre una voz generada por IA y una voz real.
De cara a entender todo esto, en La Tarde de COPE hemos hablado con Zoraida Callejas, investigadora de la Universidad de Granada, experta en sistemas conversacionales y tecnologías del habla y del procesamiento del lenguaje y líder de la investigación.
¿Cómo funciona o cómo va a funcionar este sistema?
"El sistema que hemos desarrollado lo que hacemos es darle muchos ejemplos de voces reales y voces generadas de forma artificial, pero con muchos modelos diferentes. Existen muchas formas de generar esas voces falsas, entonces lo que nosotros hacemos es darle a nuestro algoritmo ejemplos de distintas formas de voces sintéticas, así como voces reales", explica la investigadora, Zoraida Callejas. Aun así, necesitan un audio para que el sistema detecte patrones e intente cazarlos con los patrones de las voces reales o los patrones de las voces sintéticas: "Esto da una predicción de si se trata de una voz real o no. De forma que podamos ser capaces de subiéndolo a una página web el audio usar nuestros modelos y obtener una predicción de si se trata de una voz real o no y de la confianza que tiene el algoritmo en la predicción que ha hecho", sentencia Callejas.