Las personas con esclerosis lateral amiotrófica (ELA) sufren una disminución gradual en su capacidad para controlar sus músculos. Como resultado, a menudo pierden la capacidad de hablar, lo que dificulta la comunicación con los demás.
Un equipo de investigadores del Instituto Tecnológico de Massachusetts (MIT por sus siglas en inglés) ha diseñado ahora un dispositivo estirable similar a la piel que se puede conectar a la cara de un paciente y puede medir pequeños movimientos como una contracción o una sonrisa. Con este enfoque, los pacientes podrían comunicar una variedad de sentimientos, con pequeños movimientos que son medidos e interpretados por el dispositivo.
Los investigadores esperan que su nuevo dispositivo permita a los pacientes comunicarse de una manera más natural, sin tener que lidiar con equipos voluminosos. El sensor portátil es delgado y se puede camuflar con maquillaje para que coincida con cualquier tono de piel, lo que lo hace discreto.
Las personas con esclerosis lateral amiotrófica (ELA) sufren una disminución gradual en su capacidad para controlar sus músculos
''Nuestros dispositivos no solo son maleables, blandos, desechables y ligeros, sino que también son visualmente invisibles'', ha señalado Canan Dagdeviren, líder del equipo de investigación. ''Puedes camuflarlo y nadie pensaría que tienes algo en la piel'', ha añadido.
Los investigadores probaron la versión inicial de su dispositivo en dos pacientes con ELA y demostraron que podía distinguir con precisión tres expresiones faciales diferentes: sonrisa, boca abierta y labios fruncidos.
El dispositivo consta de cuatro sensores piezoeléctricos incrustados en una fina película de silicona. Los sensores, que están hechos de nitruro de aluminio, pueden detectar la deformación mecánica de la piel y convertirla en un voltaje eléctrico que se puede medir fácilmente.
Los investigadores utilizaron un proceso llamado correlación de imágenes digitales en voluntarios sanos para ayudarlos a seleccionar las ubicaciones más útiles para colocar el sensor. Pintaron un patrón de motas en blanco y negro al azar en la cara y luego tomaron muchas imágenes del área con múltiples cámaras mientras los sujetos realizaban movimientos faciales como sonreír, mover la mejilla o articular la forma de ciertas letras. Las imágenes fueron procesadas por un software que analiza cómo se mueven los pequeños puntos entre sí, para determinar la cantidad de tensión experimentada en una sola área.
Los investigadores también utilizaron las mediciones de las deformaciones de la piel para entrenar un algoritmo de aprendizaje automático para distinguir entre una sonrisa, la boca abierta y los labios fruncidos. Usando este algoritmo, probaron los dispositivos con dos pacientes con ELA y pudieron lograr aproximadamente un 75 por ciento de precisión para distinguir entre estos diferentes movimientos. La tasa de precisión en sujetos sanos fue del 87 por ciento.