Dos estudios revelan que en el futuro la tecnología podría devolver la oportunidad de comunicarse a quienes sufren una parálisis cerebral compleja.
Dos estudios separados publicados recientemente en la revista Nature indican que, en el futuro, las interfaces cerebro-computadora (BCI) podrían ayudar a restablecer la comunicación en personas que no pueden hablar debido a una parálisis severa.
En ambos estudios, los investigadores utilizaron implantes cerebrales que podían captar señales neurológicas, que luego se traducían en oraciones en una pantalla mediante algoritmos. Si bien este no es un concepto nuevo, lo interesante es que ambos equipos de investigación pudieron hacerlo mucho más rápido y con mayor precisión que las tecnologías existentes.
¿Cómo obtuvieron estos resultados de los implantes cerebrales?
En el estudio de Stanford, los investigadores implantaron electrodos en el cerebro de un paciente con esclerosis lateral amiotrófica (ELA) en dos áreas asociadas con el habla. El BCI fue diseñado para detectar la actividad cerebral cuando el paciente intentaba hablar.
Luego, esas señales se introdujeron en un algoritmo que asociaba ciertos patrones de actividad cerebral con fonemas: los sonidos que componen el habla. Para entrenar el algoritmo, los investigadores hicieron que el paciente intentara vocalizar o pronunciar en silencio oraciones de muestra en 25 sesiones que duraron aproximadamente cuatro horas cada una.
En el estudio de UC San Francisco y UC Berkeley, los investigadores colocaron quirúrgicamente una lámina delgada como un papel que contenía 253 electrodos en el cerebro de una persona con parálisis severa debido a un derrame cerebral.
Al igual que en el estudio de Stanford, los investigadores hicieron que el paciente entrenara el algoritmo intentando hablar para que pudiera reconocer qué señales cerebrales estaban asociadas con diferentes fonemas. Luego, esas señales se tradujeron en expresiones faciales y voz modulada en un avatar digital.
Resultados similares
Si bien los estudios utilizaron enfoques ligeramente diferentes, los resultados fueron similares en términos de precisión y velocidad. El estudio de Stanford tuvo una tasa de error del 9,1 por ciento cuando se limitó a un vocabulario de 50 palabras y del 23,8 por ciento cuando se amplió a un vocabulario de 125.000 palabras. Después de unos cuatro meses, el algoritmo de Stanford pudo convertir señales cerebrales en palabras a unas 68 palabras por minuto.
El algoritmo de UC San Francisco y Berkeley pudo decodificar a una velocidad media de 78 palabras por minuto. Tenía una tasa de error del 8,2 por ciento para un vocabulario de 119 palabras y aproximadamente una tasa de error del 25 por ciento para un vocabulario de 1.024 palabras.







