Una neuroprótesis logra leer el pensamiento de una mujer con parálisis y traducirlo en voz hablada “casi en tiempo real”

Se trata de una técnica experimental pero, según afirman sus creadores, sus resultados son “extremadamente prometedores” y en un futuro podrían convertirse en un “recurso esencial” para las personas que han perdido la capacidad de hablar debido a una enfermedad. Según anuncia este lunes la revista científica ‘Nature’, un equipo de investigadores de la Universidad de California ha desarrollado una neuroprótesis logra leer el pensamiento de personas con parálisis y traducirlo en voz hablada “casi en tiempo real”. En prototipos anteriores se habían logrado resultados similares pero con un retraso de entre 8 y 10 segundos pero ahora, argumenta los científicos, estaríamos ante el primer sistema capaz de traducir señales cerebrales en palabras en prácticamente un segundo.

“Esta nueva tecnología tiene un enorme potencial para mejorar la calidad de vida de las personas que viven con parálisis grave que afecta el habla”

Edward Chang

— Científico

Esta tecnología experimental se ha puesto a prueba en una mujer de 47 años llamada Ann con una tetraplejia severa derivada de un ictus que durante más 18 años no ha podido articular palabra ni mover sus extremidades. Para este ensayo clínico, los investigadores implantaron una serie de electrodos de alta densidad en la superficie de la corteza motora de esta paciente. Después, diseñaron un protocolo para detectar y descifrar las señales cerebrales relacionadas con el habla. Paralelamente también se desarrolló un sistema de habla sintético basado en una antigua grabación de la voz de la paciente con el que, finalmente, se consiguió devolverle la palabra a esta mujer.

Inteligencia artificial

La clave del éxito de este proceso, tal y como relatan sus creadores, fue el entrenamiento del algoritmo encargado de leer e interpretar el pensamiento de esta paciente. Para ello se le pidió a Ann que leyera frases como “Hola, ¿cómo estás?” y luego intentara decir esa oración en su cabeza. “Esto nos proporcionó un mapeo fragmentado entre las ventanas de actividad neuronal que ella generaba y la oración objetivo que estaba tratando de decir“, explica Kaylo Littlejohn, uno de los científicos detrás de este trabajo. A partir de ahí, se aplicaron técnicas de inteligencia artificial para “rellenar” los vacíos y recrear la estructura completa detrás del habla.

El hecho de utilizar la propia voz de la paciente se consiguió que este proceso resultara más natural tanto para ella como para su entorno

Según explican los impulsores de este trabajo, la otra gran novedad de esta herramienta es que se incorporó la misma capacidad de decodificación rápida que dispositivos como Alexa y Siri para agilizar el proceso entre la detección de las señales cerebrales relacionadas con el habla y la orden enviada al ordenador para pronunciarlas. Los primeros ensayos demuestran que este proceso es capaz de traducir el pensamiento de la paciente en voz hablada “casi en tiempo real”. Con apenas un segundo de margen entre el proceso de “habla” interna de la mujer y la voz emitida por el ordenador. En ensayos anteriores se había logrado con un ‘delay’ de entre 8 y 10 segundos. Además, gracias al hecho de utilizar la propia voz de la paciente se consiguió que este proceso resultara más natural tanto para ella como para su entorno.

“Esta nueva tecnología tiene un enorme potencial para mejorar la calidad de vida de las personas que viven con parálisis grave que afecta el habla”, afirma el neurocirujano Edward Chang, uno de los investigadores que ha liderado este trabajo. En este sentido, los expertos se muestran “optimistas” con lo logrado en este último ensayo y afirman que las herramientas de inteligencia artificial están “acelerando enormemente” el desarrollo de este tipo de dispositivos. 

Suscríbete para seguir leyendo

Cortesía de El Periodico



Dejanos un comentario: