DISCAPACIDAD INVESTIGACIÓN
Un prototipo lee señales cerebrales de personas con discapacidad motora grave
Investigadores de la Universidad de Málaga (UMA) han creado un programa para que pacientes afectados con enfermedades que impiden cualquier movimiento se comuniquen, con el que no es necesaria ninguna acción muscular ni tan siquiera el pestañeo para que la máquina interprete lo que quiere hacer.
Publicado el - Actualizado
3 min lectura
Investigadores de la Universidad de Málaga (UMA) han creado un programa para que pacientes afectados con enfermedades que impiden cualquier movimiento se comuniquen, con el que no es necesaria ninguna acción muscular ni tan siquiera el pestañeo para que la máquina interprete lo que quiere hacer.
El dispositivo lee la actividad cerebral y la materializa en un ordenador que, con asistentes virtuales de voz, envían el texto a través de servicios de mensajería instantánea o correo electrónico a los contactos del paciente, según ha informado este lunes la Fundación Descubre.
Los resultados de este estudio, desarrollado con personas sanas, confirman su idoneidad para comenzar las pruebas en pacientes afectados por esclerosis lateral amiotrófica (ELA), el síndrome de Guillain-Barré crónico y otras enfermedades neurológicas similares que debilitan progresivamente el sistema motor.
De esta manera, el dispositivo permite que se puedan enviar mensajes de texto a los contactos a pesar de que el paciente no pueda ni siquiera pestañear.
El sistema utiliza una interfaz cerebro-computadora (BCI), un tipo de tecnología de asistencia basada en las señales cerebrales de los usuarios y un dispositivo externo que las "traduce".
Los expertos proponen el uso de este sistema en un artículo de la revista Sensors como una opción válida para dar salida a una actividad cerebral sin que intervenga ninguna acción física.
En la actualidad, existen sistemas más eficaces para dar voz y movimiento a personas con dificultades motoras, pero debe existir actividad física, aunque sea mínima.
Lo "novedoso" de este proyecto es que a través del asistente de voz se controlan aplicaciones de mensajería con la única necesidad de actividad cerebral, sin que haga falta otra acción por parte del paciente, como parpadeos o movimientos oculares, ha indicado el investigador de la UMA Francisco Velasco, autor del artículo.
Aunque el prototipo se ha testado con éxito, para que esté disponible en el mercado deben realizarse pruebas con pacientes reales para validar su idoneidad.
El sistema consiste en la colocación de un dispositivo en la cabeza de la persona a la que se mostrarán en una pantalla distintas opciones que parpadean.
El usuario contará mentalmente las veces que el icono escogido se enciende y cuando llegue a un número predeterminado, la aplicación escogida se abrirá.
A continuación, se repite esta misma acción en los distintos menús que irán apareciendo como, por ejemplo, en los contactos de su agenda.
En el caso de que el paciente haya elegido la aplicación de Whatsapp y seleccionado el remitente y el texto que quiere enviar, el sistema envía un comando de voz sintetizado, como el de "Ok Google" en los dispositivos Android, es interpretado por un asistente virtual y se ejecuta en el teléfono inteligente.
En algunas enfermedades, como ELA, el paciente ve progresivamente mermada su independencia al reducirse su movilidad hasta el punto de ni siquiera poder controlar el parpadeo.
En total aislamiento, sin poder moverse ni interactuar de ninguna manera con su entorno, el enfermo acentúa el deterioro de sus capacidades intelectuales, que se suman a las motoras, añade el investigador.
Por este motivo, los investigadores plantean probar el dispositivo en entornos reales con pacientes con discapacidad motora severa, ya que podría contribuir a que estas personas mantengan durante más tiempo su relación con quienes las rodean.
Además, permitiría profundizar en la enfermedad, como conocer si se produce deterioro en la consciencia, algo sobre lo que aún no se tiene certeza.