HONOR emplea la IA para proteger la vista y detectar 'deepfakes' de vídeo con dos nuevas funciones
Publicado el - Actualizado
2 min lectura
MADRID, 26 (Portaltic/EP)
HONOR ha anunciado dos funcionalidades impulsadas por Inteligencia Artificial (IA), AI Defocus Eye Protection y AI Deepfake Detection, con las que busca proteger la vista de los usuarios y ayudarles a detectar 'deepfakes' de vídeo, respectivamente.
El fabricante de móviles ha dado a conocer estas características durante su discurso de apertura en el Mobile World Congress (MWC) de Shanghái, que acaba de arrancar en dicha ciudad china y se extenderá hasta este viernes 28 de junio.
HONOR ha dicho que ha desarrollado nuevas características impulsadas por IA "para empoderar a las personas", así como para introducir un nuevo nivel de seguridad para el usuario, tal y como ha señalado en una nota de prensa.
Para conseguirlo, ha presentado dos nuevas herramientas que utilizan esta tecnología. La primera de ellas es AI Defocus Eye Protection, que favorece la salud ocular e induce un desenfoque controlado en el campo visual periférico del usuario para ayudarle a mantener una visión central clara.
Según la marca, este efecto crea una percepción visual alterada que previene y disminuye la miopía transitoria de los usuarios en 13 grados y, en algunas ocasiones, ofrece una reducción máxima de hasta 75 grados.
Por otro lado, la compañía ha desarrollado una tecnología destinada a evitar los riesgos que presenta la técnica de 'deepfake' impulsada por IA basada en la nube. Se trata de AI Deepfake Detection, que sirve para prevenir el fraude y detectar contenido manipulado digitalmente.
La herramienta examina información cuadro por cuadro y atiende a detalles como el contacto visual, la iluminación o la claridad de la imagen, para identificar fallas que son imperceptibles para el ojo humano.
La firma ha explicado que este formato de detección de 'deepfakes' de vídeo se ha entrenado con un gran conjunto de datos de vídeos e imágenes relacionados con estafas 'online'. De esa manera, la IA puede identificar un vídeo manipulado y compararlo con otro en tres segundos.
En una demostración de la herramienta, HONOR ha compartido cómo el dispositivo avisa al usuario de que lo que está viendo posiblemente sea 'spam'. Lo hace mediante una notificación en la que se indica que "parece que la otra persona está usando IA para cambiar su cara".