Cómo los científicos están utilizando la inteligencia artificial para hablar con los animales

En la década de 1970, un joven gorila llamado Koko capturó la atención del mundo con su habilidad para usar el lenguaje de señas humano. Pero los escépticos insisten en que Cocoa y otros animales que «aprendieron» a hablar (incluidos los chimpancés y los delfines) no pueden entender realmente lo que «dicen» y están tratando de lograr que otras especies usen el lenguaje humano, donde los símbolos representan cosas. eso podría no ser físicamente La existencia es fútil.
«Un grupo de investigadores está interesado en averiguar si los animales pueden comunicarse simbólicamente, mientras que otro grupo dice: ‘Eso es antropomorfismo. Necesitamos entenderlo en términos de comunicación no humana'», dijo el profesor de la Universidad de Harvard en la Universidad de Columbia Británica. Karen Bakker, miembro del Instituto Radcliffe de Estudios Avanzados, dijo. Ahora, los científicos están utilizando sensores mejorados e inteligencia artificial para ver y decodificar cómo una amplia gama de especies, incluidas las plantas, comparten información con sus propios métodos. El campo de la «bioacústica digital» es el tema del libro de Buck de 2022, Los sonidos de la vida: cómo la tecnología digital puede acercarnos al mundo de los animales y las plantas (Princeton University Press).
Noticias-Hoy habló con Barker sobre cómo la tecnología ayuda a los humanos a comunicarse con criaturas como murciélagos y abejas, y cómo estas conversaciones nos obligan a repensar nuestra relación con otras especies.
[An edited transcript of the interview follows.]
¿Puede darnos una breve historia de los intentos humanos de comunicarse con los animales?
Hubo varios intentos a mediados del siglo XX de enseñar el lenguaje humano a no humanos (primates como Koko). Estos esfuerzos han sido algo controvertidos. Cuando miramos hacia atrás, una opinión que tenemos ahora (y quizás no tan frecuente entonces) es que nuestro enfoque era demasiado antropocéntrico. Entonces, la aspiración era evaluar la inteligencia no humana enseñándoles a hablar como nosotros, cuando en realidad deberíamos haber estado pensando en su capacidad para comunicarse de manera compleja a su manera, a su manera específica, dentro de su propia cosmovisión.
Uno de los términos utilizados en el libro es el concepto de umwelt, la experiencia vivida de un organismo. Si prestamos atención al entorno de otra criatura, no esperaríamos que una abeja hablara el lenguaje humano, pero estaríamos muy interesados en el fascinante lenguaje de la abeja, que es vibratorio y posicional. Es sensible a los matices, como la polarización de la luz solar que ni siquiera podemos comenzar a transmitir con nuestros cuerpos. Esto es ciencia hoy. El campo de la bioacústica digital, que está creciendo exponencialmente y revelando descubrimientos fascinantes sobre la comunicación a través del árbol de la vida, ahora está estudiando a estos animales sin preguntarse «¿Pueden hablar como los humanos?» sino «¿Pueden comunicar información compleja? ¿Cómo lo hicieron? ? ¿Qué es importante para ellos?» Yo diría que es un enfoque más biocéntrico, o al menos es menos antropocéntrico.
En un panorama más amplio, creo que también es importante reconocer que escuchar es algo natural, que la «escucha profunda» tiene una larga y antigua tradición. Es un arte antiguo que todavía se practica hoy en día de forma inmediata. La larga tradición indígena de escucha profunda funciona muy bien con voces no humanas. Entonces, si combinamos la escucha digital (abriendo un vasto mundo nuevo de voces no humanas y decodificándolas con inteligencia artificial) con la escucha profunda, creo que estamos al borde de dos descubrimientos importantes. El primero es el lenguaje no humano. Esta es una declaración muy controvertida en la que podemos profundizar. La segunda es: creo que estamos al borde de la comunicación entre especies.
¿Qué tecnologías permitirán estos avances?
La bioacústica digital se basa en grabadoras digitales muy pequeñas, portátiles y livianas, como los diminutos micrófonos que los científicos han instalado en todas partes, desde el Ártico hasta el Amazonas. Puede colocar estos micrófonos en la parte posterior de una tortuga o ballena. Puedes colocarlos en las profundidades del océano o en la cima de la montaña más alta, o atarlos a pájaros. Pueden grabar continuamente (incluso en la oscuridad) las 24 horas del día, los 7 días de la semana en áreas remotas a las que los científicos no pueden llegar fácilmente, y sin la interferencia de los observadores humanos introducidos en el ecosistema.
Esta detección genera una gran cantidad de datos, que es donde entra la inteligencia artificial, porque los mismos algoritmos de procesamiento de lenguaje natural que usamos en herramientas como Google Translate también se pueden usar para detectar patrones en la comunicación no humana.
¿Cuáles son ejemplos de estos patrones de comunicación?
En el capítulo sobre murciélagos donde hablo de la investigación de Yossi Yovel en la Universidad de Tel Aviv, hay un estudio en particular en el que su equipo supervisó [nearly two] Durante un período de dos meses y medio, se estudiaron una docena de murciélagos frugívoros egipcios y se registraron sus vocalizaciones.Luego adaptaron un programa de reconocimiento de voz para analizar [15,000 of] Para el sonido, los algoritmos asocian sonidos específicos con interacciones sociales específicas capturadas en video, como cuando dos murciélagos se pelean por la comida. Usando esto, los investigadores pudieron clasificar la mayoría de los sonidos de los murciélagos. Así es como Yovel y otros investigadores como Gerry Carter de Ohio State pudieron determinar que el lenguaje de los murciélagos es mucho más complejo de lo que entendíamos anteriormente. Los murciélagos se pelean por la comida, diferencian el género cuando se comunican entre sí y tienen nombres o «llamadas de firma». Las madres murciélago les hablan a sus bebés en el equivalente a su «lengua materna». Pero las madres humanas elevaron el tono de sus voces cuando hablaban con sus bebés, mientras que las madres murciélago lo bajaron, lo que provocó una respuesta de balbuceo en los bebés que crecieron aprendiendo a «hablar» palabras específicas o señales de referencia. Entonces los murciélagos se involucran en el aprendizaje vocal.
Es un gran ejemplo de cómo el aprendizaje profundo puede tomar estos patrones de estos instrumentos, todos estos sensores y micrófonos, y revelarnos cosas a las que no podemos acceder con nuestros oídos desnudos. Debido a que la mayor parte de la comunicación de un murciélago es ultrasónica, fuera de nuestro rango de audición, y debido a que los murciélagos hablan mucho más rápido que nosotros, tenemos que reducir la velocidad para escucharlo, y en una frecuencia más baja. Así que no podemos escuchar como un murciélago, pero nuestras computadoras sí. La siguiente idea fue que nuestras computadoras también pueden hablar con los murciélagos. El software genera patrones específicos y utiliza esos patrones para comunicarse con colonias de murciélagos o colmenas, que es lo que están haciendo ahora los investigadores.
¿Cómo hablan los investigadores con las abejas?
La investigación de las abejas es fascinante. Un investigador de la Freie Universität Berlin llamado Tim Landgraf estudia la comunicación de las abejas y, como mencioné antes, la comunicación de las abejas es vibratoria y posicional. Cuando las abejas «hablan» entre sí, lo que importa son sus movimientos corporales y sus voces. Ahora las computadoras, especialmente los algoritmos de aprendizaje profundo, pueden seguir eso porque puede usar la visión artificial, combinada con el procesamiento del lenguaje natural. Ahora han refinado los algoritmos hasta el punto de que en realidad pueden rastrear abejas individuales y determinar qué podría estar haciendo la comunicación de un individuo con otra abeja. De ahí surgió la capacidad de decodificar el lenguaje de las abejas. Descubrimos que tienen señales específicas. Los investigadores tienen nombres interesantes para estas señales. Las abejas pitan, graznan. Hay una señal de «shh» o «stop», una señal fuerte de «peligro».tienen pipas [signals related to swarming] Señales de súplicas y sacudidas, orientan el comportamiento colectivo e individual.
El próximo paso de Landgraf es codificar esta información en un robot al que llama RoboBee. Eventualmente, después de siete u ocho prototipos, se le ocurrió una «abeja» que podía entrar en la colmena y básicamente emitir órdenes que las abejas obedecerían. Entonces, los robots de abejas de Landgraf pueden decirles a otras abejas que se detengan, y lo hacen. También puede hacer algo más complejo, que es el muy famoso baile de meneo, un modo de comunicación que utilizan para comunicar a otras abejas la ubicación de las fuentes de néctar. En cierto modo, este es un experimento muy fácil de realizar porque colocas la fuente de néctar en un lugar de la colmena que nunca han visitado las abejas. Luego le indica al robot que le diga a las abejas dónde está la fuente del néctar, y verifica si las abejas volaron con éxito allí. De hecho, lo hacen. Este resultado solo ocurrió una vez, y los científicos no están seguros de por qué funciona o cómo replicarlo. Pero sigue siendo un resultado impactante.
Esto plantea muchas cuestiones filosóficas y éticas. Podría imaginarse que un sistema de este tipo se usa para proteger a las abejas: podría decirles a las abejas que vuelen a fuentes seguras de néctar, en lugar de lugares contaminados, como lugares con altos niveles de pesticidas. También puedes imaginar que esto podría ser una herramienta para domesticar especies salvajes que solo domesticamos parcialmente, o para tratar de controlar el comportamiento de otras especies salvajes. Las ideas sobre el nivel de sofisticación y comunicación sofisticada en los no humanos plantean algunas preguntas filosóficas muy importantes sobre la singularidad del lenguaje como capacidad humana.
¿Cómo afecta esta tecnología nuestra comprensión del mundo natural?
La invención de la bioacústica digital es similar a la invención del microscopio. Cuando el científico holandés Antoine van Leeuwenhoek comenzó a mirar a través de su microscopio, descubrió el mundo microbiano, que sentó las bases para innumerables avances futuros. Los microscopios permiten a los humanos volver a ver con nuestros ojos y nuestra imaginación. La analogía aquí es que la bioacústica digital combinada con la inteligencia artificial actúa como un audífono planetario, permitiéndonos volver a escuchar a través de oídos mejorados con prótesis y nuestra imaginación. Esto no solo nos abre lentamente a los maravillosos sonidos que hacen los no humanos, sino que también nos abre a una serie de preguntas fundamentales sobre la llamada división entre humanos y no humanos, nuestra relación con otras especies y más. También abre nuevas formas de pensar sobre la conservación y nuestra relación con el planeta. Esto es muy profundo.






