Google Live Caption podrá leer en alto las respuestas escritas por los usuarios durante las llamadas
Publicado el - Actualizado
2 min lectura
MADRID, 19 (Portaltic/EP)
Google ha anunciado una serie de novedades entre las que se encuentra una función adicional de Live Caption, que permitirá a los usuarios escribir respuestas durante las llamadas para que el sistema las lea en voz alta y lleguen a la persona con la que se comunican.
La compañía tecnológica ha detallado en qué ha estado trabajando los últimos meses en materia de accesibilidad para crear una serie de funcionalidades "hechas con y para personas con discapacidades".
Una de las nuevas funcionalidades está relacionada con Live Caption, una herramienta que utiliza Inteligencia Artificial (IA) para proporcionar subtítulos automáticos y en tiempo real en Android, Chrome (en versión móvil y web) y Google Meet.
La novedad más destacada de Live Caption permite a los usuarios escribir respuestas durante las llamadas para que el sistema las lea en voz alta y las escuche la otra persona.
Esta opción ya está disponible en los terminales Pixel más nuevos, aunque se expandirá, por un lado, a las versiones Pixel 4 y Pixel 5 y, por otro, a 'smartphones' Android seleccionados. Entre ellos, a los Samsung Galaxy.
Google ha avanzado también que este verano implementará actualizaciones para hacer llegar esta característica a más usuarios con novedades como un nuevo cuadro de subtítulos que optimiza la experiencia Live Caption en tabletas con sistema operativo Android.
Finalmente, ha implementado el soporte de esta herramienta para francés, italiano y alemán, tanto en los Pixel 4 y 5 como en otros 'smartphones', incluidos también los de la serie Galaxy de Samsung.
Otra de las novedades se dirige a Lookout, una herramienta lanzada en 2019 y diseñada con y para personas con problemas de visión que utiliza la inteligencia artificial para ayudarles en tareas cotidianas, como clasificar el correo y guardar las compras.
Ahora se ha puesto en marcha una función de 'pregunta y respuesta de imágenes', que es capaz de procesar la imagen y proporcionar una descripción, de modo que las personas pueden preguntarle al sistema -mediante voz o texto- aspectos y detalles para tener más conocidimiento de lo que aparece en ella. Para poder ofrecer este servicio, Lookout se basa en un modelo de lenguaje visual avanzado desarrollado por Google DeepMind.
Google ha dicho que esta función ha llegado a algunos usuarios con problemas visuales y espera ampliarlo a un grupo más amplio de personas próximamente.
TAMBIÉN EN MAPS Y CHROME
Para personas con problemas de movilidad ha implementado un icono en Google Maps que indica cuándo un determinado lugar dispone de una entrada accesible con silla de ruedas.
También ha comentado que se podrán conocer más datos sobre estos lugares haciendo clic en la pestalla de 'Acerca de', para consultar si disponen de asientos, espacios de estacionamiento o baños accesibles para estos usuarios.
Por último, para mejorar la accesibilidad Google ha introducido una función que detecta errores cuando se escribe mal un sitio web en la barra de direcciones de Chrome y que sugerirá sitios web en función de las correcciones.