TECNOLOGÍA
Ciberseguridad: Bumble introduce una herramienta basada en IA que detecta desnudos y contenido inapropiado en los chats
Descubre las últimas noticias y novedades de la tecnología en COPE
Madrid - Publicado el - Actualizado
3 min lectura
Las últimas noticias sobre tecnología con COPE Internet, redes sociales, móviles, gadgets, software, seguridad.
Bumble ha introducido una herramienta que utiliza tecnología basada en Inteligencia Artificial (IA) y es capaz de detectar imágenes de desnudos y contenido inapropiado en el apartado de chats que dispone la plataforma.
La compañía anunció a finales de abril que estaba desarrollando una especie de filtro, Private Detector, que estaría integrado en Bumble y que avisaría a los usuarios en caso de sospechar de que una fotografía fuera lasciva.
Entonces, dijo que esta funcionalidad trabajaría con algoritmos y que había sido entrenada por IA para capturar imágenes en tiempo real y determinar con un 98 por ciento su contienen desnudos o contenidos sexuales explícitos.
Ahora la compañía ha anunciado el lanzamiento de una versión de código abierto de esta funcionalidad, con la que espera "ayudar a la comunidad tecnológica a combatir el cyberflashing", según ha apuntaod en un comunicado publicado a través de su blog.
Se conoce como cyberflashing a la práctica consistente en el envío de imágenes obscenas o vídeos sexuales no consentidos a través de estas plataformas de mensajería y se considera un tipo de violencia digital.
Bumble espera frenar esta práctica con Private Detector, una funcionalidad con la que busca añadir una nueva capa de seguridad a esta aplicación de citas en línea para 'smartphones', según el documento.
La compañía ha subrayado que esta herramienta se estrena utilizando conjuntos de datos de alto volumen, mediante los cuales busca distinguir las muestras sin contenido lascivo "para reflejar mejor los casos extremos y otras partes del ser humano" y que su sistema de aprendizaje automático ('machine learning') no los marque como abusivos o susceptibles de ser prohibidos.
De esta forma, sus sistema será capaz de detectar qué imágenes debe borrar de la plataforma, como pueden ser desnudos, fotos de partes íntimas, personas sin camiseta e, incluso armas; y cuáles debe mantener.
Las fotografías que Private Detector haya determinado como inapropiadas, se mostrarán difuminadas en la aplicación, por lo que los receptores de esas imágenes podrán elegir si verla (pulsando sobre las imágenes de forma prolongada), bloquearla o bien denunciar a la persona que la envió.
La compañía ha adelantado que este sistema basado en IA está disponible para todos los interesados y es de código abierto, por lo que se puede descargar a través de GitHub para implementarlo en otras páginas web o servicios.
Puedes leer nuestra sección de tecnología para leer más noticias de tu sección favorita.
Toda la información actualizada de forma constante en la web del diario, así como en las redes sociales del mismo: Facebook, Twitter e Instagram.
Además, si todavía no recibes las alertas de última hora en tu móvil para conocer la información antes que nadie, puedes bajarte sin ningún coste la aplicación de COPE para iOS (iPhone) y Android.
La aplicación de COPE es el mejor canal para escuchar la radio en directo, pero es también un completo medio de información digital que cuenta las noticias cuando se están produciendo, que te alerta de lo que sucede mediante notificaciones en tu móvil. Continúa leyendo las últimas noticias de actualidad en nuestra página web para estar siempre informado de lo que está pasando.