NOTICIAS

El cerebro tiene su propia función de ‘autocompletar’ para el habla

El mundo es un lugar impredecible. Pero el cerebro ha desarrollado una forma de lidiar con las incertidumbres cotidianas que encuentra, y en lugar de mostrarnos muchas de ellas, las resuelve en un modelo realista del mundo. El controlador central del cuerpo utiliza su base de datos almacenada de experiencias pasadas para predecir cada evento inesperado y minimizar el elemento sorpresa. Tome la visión, por ejemplo: rara vez vemos los objetos en su totalidad, pero nuestro cerebro llena los espacios en blanco y hace las mejores conjeturas sobre lo que estamos viendo, predicciones que generalmente son un reflejo preciso de la realidad.

Lo mismo ocurre con la audición, donde los neurocientíficos ahora han identificado un mecanismo cerebral predictivo similar a un texto que nos ayuda a predecir lo que sucederá a continuación cuando escuchemos a alguien hablar. Los hallazgos, publicados esta semana en PLoS Biology, mejoran nuestra comprensión de cómo el cerebro procesa el lenguaje. También brindan pistas sobre cómo evolucionó el lenguaje e incluso pueden conducir a nuevas formas de diagnosticar con mayor precisión varios trastornos neurológicos.

La nueva investigación se basa en hallazgos anteriores de que los monos y los bebés humanos pueden aprender implícitamente a reconocer la gramática artificial, o las reglas por las cuales los sonidos en un lenguaje artificial se relacionan entre sí. Yukiko Kikuchi, neurocientífica de la Universidad de Newcastle en el Reino Unido, y sus colegas reprodujeron una serie de declaraciones sin sentido a monos macacos y humanos. De acuerdo con hallazgos anteriores, Kikuchi y su equipo encontraron que ambas especies aprendieron rápidamente las reglas gramaticales artificiales del idioma. Después de este período inicial de aprendizaje, los investigadores reprodujeron más secuencias de sonidos, algunos de los cuales violaron las reglas gramaticales inventadas. Usaron microelectrodos para registrar las respuestas de cientos de neuronas individuales, así como la gran cantidad de neuronas que procesan la información del sonido. De esta forma, pudieron comparar las respuestas de los dos tipos de secuencias y determinar similitudes entre las respuestas de las dos especies.

LEER
Cómo la investigación sobre la memoria de trabajo puede mejorar su relación

Los científicos descubrieron que, en este caso, la actividad cerebral de los monos y los humanos era muy similar y variaba según el orden de los sonidos en la oración falsa. En ambas especies, las oraciones gramaticales alteraron el disparo de células individuales en la corteza auditiva, de modo que la actividad rítmica de baja y alta frecuencia producida por diferentes poblaciones de neuronas se sincronizó. Las oraciones que violaban las reglas gramaticales inicialmente producían diferentes respuestas, pero el mismo patrón sincronizado emergía después de aproximadamente medio segundo, mostrando que la secuencia «correcta» aprendida antes modulaba la respuesta del cerebro a las oraciones que violaban las reglas. «Descubrimos cómo las neuronas individuales se coordinan con las poblaciones neuronales para predecir los próximos eventos», dijo Kikuchi. «Esto sucede poco antes de que la neurona se dé cuenta del error y el cerebro tenga que revisar su predicción». Añadió que la investigación «podría ayudar en última instancia a las personas que tienen problemas para predecir lo que sucederá a continuación». «Por ejemplo, ahora podemos preguntarnos cómo funcionan mal estas respuestas predichas en personas con trastornos como la dislexia, la esquizofrenia y el TDAH».

El estudio es el primero en comparar directamente las respuestas neuronales a sonidos complejos en humanos y monos. Por lo tanto, sus resultados sugieren que las dos especies usan los mismos mecanismos cerebrales para procesar estos sonidos, mecanismos que parecen haberse conservado durante la evolución. Sophie Scott, neurocientífica cognitiva del University College London que estudia los mecanismos de producción del lenguaje del cerebro y no participó en el estudio, dice que la nueva investigación proporciona información importante sobre el funcionamiento de la corteza auditiva primaria del cerebro. «Esto sugiere que las células son sensibles a la secuencia de sonidos, o lo que escuchas a continuación», dijo. «Descubrieron que la señal se modula dependiendo de si obtienes la secuencia esperada o no, lo que es una buena evidencia de que la corteza auditiva está aprendiendo estas secuencias o está recibiendo información sobre ellas de otros lugares y usando esa información».

LEER
Copa del Mundo 2022: elige tu XI inicial de Inglaterra para Qatar vs Senegal | Noticias de futbol

Sin embargo, agregó Scott, aplicar el mismo análisis al lenguaje humano puede ser difícil porque los lenguajes ficticios utilizados en la investigación se parecen poco a los lenguajes reales. «Las palabras lead y let se pronuncian diferente al final. Pero cuando digo una u otra, hago un sonido diferente al principio porque estoy esperando el final de la palabra», explica Scott. «Usamos esta información en el habla, pero falta en la gramática artificial, que tiene largos espacios entre las palabras necesarias para examinar cómo cambian las oscilaciones neuronales. Esto significa [the researchers’ method of analysis] Si vieran discursos reales, probablemente no funcionaría. «

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba