Actividad cerebral decodificada para producir un habla sintética inteligible

Las enfermedades neurológicas que pueden provocar parálisis, como la esclerosis lateral amiotrófica (ELA) y el accidente cerebrovascular del tronco encefálico, también privan a muchos pacientes de la capacidad de hablar. La tecnología de asistencia proporciona control de teclado para algunos de ellos (como el famoso físico fallecido Stephen Hawking), mientras que las interfaces cerebro-computadora permiten que otros controlen las máquinas directamente con sus mentes. Pero ambos tipos de dispositivos son lentos y poco prácticos para las personas con síndrome de enclaustramiento y otros problemas de comunicación.
Ahora, los investigadores están desarrollando herramientas para espiar la actividad cerebral relacionada con el habla, decodificarla y convertirla en palabras habladas por máquinas. Un estudio reciente utilizó técnicas de síntesis de voz y aprendizaje automático de última generación para producir algunos de los resultados más impresionantes hasta la fecha.
Nima Mesgarani, ingeniera eléctrica del Instituto Zuckerman de la Universidad de Columbia, y sus colegas estudiaron a cinco pacientes con epilepsia a los que se les implantaron electrodos en o sobre el cerebro durante el tratamiento. Los electrodos cubren el área involucrada en el procesamiento del habla. Mientras se registraba su actividad cerebral, los pacientes escuchaban las historias leídas en voz alta. El equipo entrenó una red neuronal de «aprendizaje profundo» para hacer coincidir esta actividad con el audio correspondiente. La prueba es entonces si el sistema puede reproducir el habla original dados los datos neuronales que nunca antes había visto.
Cuando el paciente escucha los números del 0 al 9 cada cuatro veces, el sistema convierte los datos neuronales en los valores necesarios para controlar un vocoder, un tipo especial de sintetizador de voz.Según enero Informes científicosLa mayoría de los esfuerzos anteriores no han medido la comprensión de dicho discurso reconstruido. «Demostramos que era comprensible», dijo Mesgarani.
Los investigadores ya sabían que era posible reconstruir el habla a partir de la actividad cerebral, pero este nuevo trabajo es un paso hacia un mayor rendimiento. «Hay mucho margen de mejora, pero sabemos que la información está ahí», dijo Edward Chang, neurocirujano de la Universidad de California en San Francisco, que no participó en el estudio. «Va a mejorar en los próximos años, es un campo de rápido crecimiento».
Hay algunas restricciones. El equipo de Mesgarani registró la actividad cerebral de las regiones de percepción del habla, no de las regiones productoras del habla. Los investigadores también evaluaron su sistema en solo un pequeño subconjunto de palabras en lugar de oraciones completas usando un vocabulario extenso. (Otros investigadores, incluido Chang, ya están trabajando en estas preguntas). Quizás lo más importante es que esta investigación tiene como objetivo decodificar la actividad asociada con el discurso realmente escuchado, no solo imaginado, necesario después de desarrollar dispositivos prácticos. «Los desafíos que todos enfrentamos son reales e imaginarios», dijo Mesgarani.






