Un paciente con ELA "habla" gracias a la interfaz cerebro-ordenador "más precisa jamás descubierta"

UC Davis Health ha desarrollado una interfaz cerebro-ordenador que permite a pacientes con ELA traducir señales cerebrales en habla con una precisión del 97%

Anatomía del cerebro humano con chip de computadora (Foto: Canva)
Anatomía del cerebro humano con chip de computadora (Foto: Canva)
José Iborra
20 agosto 2024 | 11:00 h
Archivado en:

La Universidad de California en Davis ha desarrollado una nueva interfaz cerebro-ordenador (BCI) encargada de traducir señales cerebrales en habla con una precisión de hasta el 97%. "El sistema más preciso de su tipo", señalan.

Los investigadores implantaron sensores en el cerebro de un hombre con esclerosis lateral amiotrófica (ELA) que presentaba un grave deterioro del habla. Después de iniciar el sistema, el paciente pudo pronunciar en minutos el discurso que deseaba. 

Esta patología, conocida también como enfermedad de Lou Gehrig, es una enfermedad neurodegenerativa progresiva que afecta las neuronas motoras del cerebro y la médula espinal. Estas neuronas son responsables de enviar mensajes a los músculos voluntarios, como los de los brazos y las piernas. Con el tiempo, la ELA provoca debilitamiento muscular y pérdida de la capacidad de movimiento. Los síntomas iniciales pueden incluir problemas para caminar, escribir o hablar.

“Nuestro trabajo muestra la neuroprótesis del habla más precisa jamás descubierta”

Por ello, esta nueva tecnología se está desarrollando para restablecer la comunicación de las personas que no pueden hablar debido a parálisis o enfermedades neurológicas. Puede interpretar las señales cerebrales cuando el usuario intenta hablar y convertirlas en texto que la computadora "leerá" en voz alta. “Nuestro trabajo muestra la neuroprótesis del habla más precisa jamás descubierta”, explica Davis David Brandman, neurocirujano de UC y coinvestigador principal y coautor principal de este estudio.

El proceso consiste en que cuando el paciente intenta hablar, el nuevo dispositivo BCI transforma su actividad cerebral en texto en la pantalla de una computadora. "Estas palabras se leyeron en voz alta con una voz que sonaba como la de Harrell antes de padecer ELA. La voz se compuso utilizando un software entrenado con muestras de audio existentes de su voz anterior a la ELA", señalan los investigadores. Para desarrollar el sistema, el equipo inscribió a Casey Harrell, un hombre de 45 años con ELA, en el ensayo clínico BrainGate.

En julio de 2023, Brandman implantó el dispositivo BCI. Colocó cuatro conjuntos de microelectrodos en la circunvolución precentral izquierda, una región del cerebro responsable de coordinar el habla. Los conjuntos están diseñados para registrar la actividad cerebral de 256 electrodos corticales.

"Estamos traduciendo esos patrones de actividad cerebral en un fonema , como una sílaba o la unidad del habla"

“Estamos grabando desde la parte del cerebro que está tratando de enviar estos comandos a los músculos. Básicamente estamos escuchando eso y estamos traduciendo esos patrones de actividad cerebral en un fonema, como una sílaba o la unidad del habla, y luego las palabras que están tratando de decir”, afirma el neurocientífico Sergey Stavisky, profesor adjunto en el Departamento de Cirugía Neurológica.  

En la primera sesión de entrenamiento de datos de voz, el sistema tardó 30 minutos en lograr una precisión de palabras del 99,6 % con un vocabulario de 50 palabras. Stavisky explicó que la primera vez que probaron el sistema lloraron de alegría cuando las palabras que intentaba decir correctamente aparecieron en la pantalla.

En la segunda sesión, el vocabulario potencial se amplió a 125.000 palabras. Con solo 1,4 horas adicionales de entrenamiento, el BCI alcanzó una precisión del 90,2% con este vocabulario mucho más grande. Tras seguir recopilando datos, el BCI ha mantenido una precisión del 97,5%.

El estudio ha realizado 84 sesiones de recopilación de datos a lo largo de 32 semanas. En total, Harrell utilizó la BCI del habla en conversaciones a su propio ritmo durante más de 248 horas para comunicarse en persona y por videochat.

 “En este momento, podemos decodificar lo que Casey intenta decir correctamente aproximadamente el 97 % de las veces, lo que es mejor que muchas aplicaciones para teléfonos inteligentes disponibles comercialmente que intentan interpretar la voz de una persona”, concluyó Brandman.  

Los contenidos de ConSalud están elaborados por periodistas especializados en salud y avalados por un comité de expertos de primer nivel. No obstante, recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.
Lo más leído