NOTICIAS

Computadora que lee la mente y puede convertir pensamientos en palabras

Extraído de The Body Builders: Inside the Science of the Engineered Human por Adam Piore. Derechos de autor © 2022 Adán Piore. Con permiso de la editorial HarperCollins. reservados todos los derechos.

Es una fría tarde de febrero y estoy sentado en la habitación de un hospital en el centro de Albany, Nueva York, mientras un grupo de técnicos con chaquetas blancas se afanan alrededor de la cama de Cathy, una madre soltera de 40 años de Schenectady. Están preparados para empujar los límites de la «lectura de la mente» asistida por computadora. Están tratando de decodificar el «discurso imaginario».

Me trajo aquí Gerwin Schalk, un sociable neurocientífico nacido en Austria que prometió mostrarme lo lejos que él y otros neurodescifradores han llegado desde ese día hace décadas, cuando David Hubel y Torsten Wiesel hicieron historia al escuchar y decodificar – patrones de disparo de neuronas en la corteza visual del gato.

Cathy sufre de epilepsia y está programada para someterse a una cirugía cerebral en un intento de extirpar la parte de su cerebro que le está causando las convulsiones. Los médicos retiraron la parte superior del cráneo de Cathy hace tres días y colocaron 117 pequeños electrodos directamente en la superficie derecha de su corteza expuesta para monitorear su actividad cerebral y mapear áreas de interés. Mientras esperaba, se ofreció como voluntaria para el estudio de Schalk.

Ahora, al lado de mi silla, Cathy se recuesta en una cama eléctrica. La parte superior de la cabeza de Cathy estaba envuelta en un vendaje rígido similar a un yeso y cinta quirúrgica. De una abertura en la parte superior de su cráneo sobresalía una gruesa masa de malla de alambre. Rodó sobre su cama de hospital, cayó al suelo y se subió a un carrito que contenía cajas, amplificadores, divisores y computadoras por un valor de 250.000 dólares.

LEER
Cuando el ojo de la mente se vuelve ciego

El mesero hace una señal y Cathy se enfoca en el monitor que está en la mesa frente a ella, mientras un par de parlantes cercanos pronuncian una serie de palabras sueltas en un tono monótono femenino.

«cuchara…»

«Pitón…»

«campo de batalla…»

Con cada palabra, un signo más de color parpadea en el monitor de Cathy, una señal para que Cathy repita en silencio cada palabra en su cabeza. El rostro de Cathy era insondable. Pero mientras imaginaba cada palabra, 117 electrodos en la parte superior de su corteza registraron una combinación única de actividad eléctrica de cientos de millones de neuronas en la región del lóbulo temporal de su cerebro. Los patrones viajan a través de cables, a una caja que los amplifica y luego a una computadora, donde se representan como picos y valles apilados, líneas horizontales rodando frente al técnico. En algún lugar oculto en la masa de mechones ondulados, tan gruesos e impenetrables como un puñado de cabello tenso con un cepillo, hay un patrón lógico, un código que se puede leer si se comprende el misterioso lenguaje del cerebro.

El equipo de Schalk en el Centro Wadsworth, un laboratorio de salud pública en el Departamento de Salud del Estado de Nueva York, luego estudiará los datos con colaboradores de la Universidad de California, Berkeley. Cada uno de los electrodos de Cathy registra el estado de alrededor de un millón de neuronas, aproximadamente 10 veces por segundo, creando una vertiginosa tormenta de números, combinaciones y posibles significados.

Sin embargo, Schalke insistió en que él y su equipo podían resolver el rompecabezas y utilizar la potencia informática moderna para extraer las palabras que Cathy imaginó a partir de la gran cantidad de datos.

Es un objetivo que Schalk ha estado persiguiendo durante la última década. Como parte de un proyecto originalmente financiado por la Oficina de Investigación del Ejército, Schalke y otros encontraron evidencia de que cuando «imaginamos» hablar, la corteza auditiva (tal vez como una referencia de corrección de errores) capta lo que deberíamos escuchar para cada palabra que decimos. Una copia de cómo se ve. Esto es cierto incluso si solo imaginamos decir una palabra.

Desde ese descubrimiento, Schalk y sus colaboradores han demostrado que a veces pueden distinguir entre vocales y consonantes imaginarias alrededor del 45 por ciento de las veces. La probabilidad es del veinticinco por ciento. En lugar de tratar de llevar esos números al 100 %, Schalk se centró en demostrar que podía distinguir entre vocales y consonantes incrustadas en palabras. Luego están los fonemas individuales. Eso no es todo.

Desde el lado de la cama de Cathy, seguí a Schalke a su oficina. En una pantalla grande, Schalke mostró una multitud de señales cerebrales, líneas onduladas y gráficos de diferentes tipos. Luego encendió algunos parlantes. En el transcurso de varios meses, explicó Schalk, fue a las salas del hospital con parlantes y tocó el mismo fragmento de la canción de Pink Floyd a una docena de pacientes de cirugía cerebral como Cathy. Schalke luego entregó el archivo de su actividad cerebral registrada al laboratorio de Robert Knight en UC Berkeley para que lo procesaran y ver si podían decodificarlo.

Schalke apretó un botón. El bajo comenzó a latir rápidamente desde los parlantes cercanos, como un corazón humano latiendo violentamente. El sonido es un poco amortiguado, como si viniera del agua, pero es claramente grave. Una guitarra lúgubre reverbera a través de un pedal de efectos, sus notas se aceleran con cada nueva frase. Reconocí la canción de inmediato: era la melodía fascinante e inquietante de «Another Brick in the Wall» de The Wall de Pink Floyd. Aparte del silenciador vago, esta canción es exactamente como la que escuché en la escuela secundaria. Pero esta versión proviene de las ondas cerebrales, no de la música.

«¿Perfecto?», preguntó el Schalke. «No. Pero no solo sabemos que está escuchando música, conoces la canción. Solía ​​ser ciencia ficción, pero ya no lo es».

Esta hazaña fue posible gracias al descubrimiento de que diferentes grupos de neuronas en la corteza auditiva responden con más fuerza a tonos y amplitudes específicos. Al tocar el tono correcto para alcanzar el punto óptimo de una sola neurona en la corteza auditiva, se dispara una señal fuerte. Si se aleja del tono preferido de la neurona, la velocidad de activación de la neurona se ralentiza. Al entrenar un algoritmo de reconocimiento de patrones, Schalke y sus colaboradores le enseñaron a la computadora a «traducir» los patrones de activación neuronal en la corteza auditiva de nuevo al sonido.

Schalk y sus colaboradores en Berkeley ahora están tratando de discernir si los pacientes se imaginan recitando el Discurso de Gettysburg, el Discurso inaugural de Kennedy o la canción infantil Humpty Dumpty al observar los datos del cerebro e intentar reproducirlos artificialmente usando la misma técnica. En última instancia, esperan usarlo para decodificar el lenguaje imaginario de voluntarios como Cathy y, eventualmente, pacientes que se encierran por completo y pierden la capacidad de hablar.

LEER
Los efectos cerebrales de la tecnología: es complicado

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba