Inteligencia artificial

Cómo la IA sabe cosas que nadie le cuenta

Nadie sabe aún cómo ChatGPT y sus contrapartes de IA cambiarán el mundo, en parte porque nadie sabe realmente lo que sucede dentro de ellos. Algunos de estos sistemas son mucho más capaces de lo que fueron entrenados para hacerlo, e incluso sus inventores no saben por qué. Un número creciente de pruebas muestra que estos sistemas de inteligencia artificial desarrollan modelos internos del mundo real, muy parecidos a nuestros propios cerebros, aunque con diferencias en la tecnología de las máquinas.

“Si no entendemos cómo funcionan, entonces todo lo que queremos hacer con ellos es hacerlos mejores o más seguros o algo así, me parece algo absurdo”, dijo Ellie Pavlick de la Universidad de Brown, uno de los investigadores que trabajan para llenar este vacío explicativo.

En cierto modo, ella y sus colegas conocen muy bien GPT (abreviatura de Transformadores preentrenados generativos) y otros modelos de lenguaje extenso (LLM). Estos modelos se basan en sistemas de aprendizaje automático llamados redes neuronales. La estructura de la red imita vagamente las neuronas conectadas del cerebro humano. El código de estos programas es relativamente simple y ocupa solo unas pocas pantallas. Creó un algoritmo de autocorrección para elegir las palabras más probables para completar un ensayo, basado en un minucioso análisis estadístico de cientos de gigabytes de texto de Internet. La capacitación adicional garantiza que el sistema presente sus resultados en forma de conversación. En ese sentido, todo lo que está haciendo es repetir lo que ha aprendido: un «loro al azar», en palabras de la lingüista Emily Bender de la Universidad de Washington. Pero el LL.M. también aprobó con éxito el examen de la barra, explicó el bosón de Higgs en pentámetro yámbico e intentó romper los matrimonios de sus usuarios. Pocos esperaban una gama tan amplia de capacidades de un algoritmo de corrección automática bastante simple.

GPT y otros sistemas de IA realizan tareas no entrenadas, lo que les otorga «capacidades emergentes» que sorprendieron incluso a los investigadores que, en general, se mostraban escépticos ante la exageración del LL.M. “No sé cómo lo hacen, o si pueden hacerlo de manera más general como lo hacen los humanos, pero desafían mi punto de vista”, dijo Melanie Mitchell, investigadora de inteligencia artificial en el Instituto Santa Fe.

«Definitivamente no es solo un loro al azar, y construye algún tipo de representación del mundo, aunque no creo que sea muy similar a la forma en que los humanos construyen modelos internos del mundo», dijo Yoshua Bengio, investigador de inteligencia artificial en la Universidad de Montreal.

En una conferencia en la Universidad de Nueva York en marzo, el filósofo de la Universidad de Columbia, Raphaël Millière, brindó otro ejemplo asombroso de lo que puede hacer un LL.M. Estos modelos ya han demostrado la capacidad de escribir código de computadora, lo cual es impresionante pero no demasiado sorprendente dado que hay tantos códigos imitables en Internet. Sin embargo, Millière fue un paso más allá y demostró que GPT también puede ejecutar código. El filósofo ingresó a un programa para calcular el número 83 en la secuencia de Fibonacci. «Es un razonamiento de varios pasos», dijo. El robot tuvo éxito. Sin embargo, cuando Millière preguntó directamente por el número 83 de Fibonacci, GPT se equivocó al sugerir que el sistema no solo estaba imitando a Internet. En su lugar, llega a la respuesta correcta realizando sus propios cálculos.

LEER
Análisis forense digital: la guía definitiva

Si bien el LLM se ejecuta en una computadora, no es una computadora en sí. Carece de elementos computacionales esenciales como la memoria de trabajo. De forma predeterminada, GPT en sí mismo no debería poder ejecutar código, y su inventor, la empresa de tecnología OpenAI, ha introducido desde entonces un complemento especializado (una herramienta que ChatGPT puede usar al responder consultas) que le permite hacerlo. Sin embargo, el complemento no se utilizó en la presentación de Millière. En cambio, postula que las máquinas improvisan recuerdos al explotar sus mecanismos para interpretar palabras en contexto, una situación similar a cómo la naturaleza reutiliza las habilidades existentes para nuevas funciones.

Esta capacidad de improvisación sugiere que el LL.M. desarrolla una complejidad interna que va mucho más allá del análisis estadístico superficial. Los investigadores encontraron que los sistemas parecían realmente entender lo que habían aprendido. En un estudio presentado la semana pasada en la Conferencia Internacional sobre Representaciones de Aprendizaje (ICLR), el estudiante de doctorado de Harvard Kenneth Li y sus colegas investigadores de IA (Aspen K. Hopkins del MIT, David Bau de la Universidad Northeastern y Fernanda Viégas, Hanspeter Pfister y Martin Wattenberg de Harvard) construyeron copias más pequeñas de sus propias redes neuronales GPT para estudiar su funcionamiento interno. Lo entrenaron en millones de juegos del juego de mesa Othello alimentándolo con largas secuencias de movimientos en forma de texto. Su modelo se convirtió en un jugador casi perfecto.

Para estudiar cómo las redes neuronales codifican la información, utilizaron una técnica inventada en 2022 por Bengio y Guillaume Alain, también de la Université de Montréal. Crearon una red de diminutas «sondas» para analizar la red principal capa por capa. Lee compara este enfoque con los enfoques de la neurociencia. «Es similar a cómo colocamos sondas eléctricas en el cerebro humano», dijo. En el caso de la inteligencia artificial, las investigaciones han demostrado que su «actividad neuronal» coincide con la de una placa Reversi, aunque de forma compleja. Para confirmar esto, los investigadores ejecutaron la sonda a la inversa, implantando información en la red, como convertir los bloques marcados en negro del juego en bloques marcados en blanco. «Esencialmente, pirateamos los cerebros de estos modelos de lenguaje», dijo Li. La red ajustó sus acciones en consecuencia. Los investigadores concluyeron que jugaba a Reversi más o menos como un ser humano: sosteniendo el tablero de juego en su «ojo de la mente» y usando ese modelo para evaluar los movimientos. Lee dijo que cree que el sistema aprende la habilidad porque es la descripción más sucinta de sus datos de entrenamiento. «Si tienes muchos guiones de juegos, tratar de descubrir las reglas detrás de ellos es la mejor manera de comprimirlos», agregó.

Publicaciones relacionadas

Esta capacidad de inferir la estructura del mundo exterior no se limita a simples acciones del juego, sino que también aparece en el diálogo. Belinda Li (sin relación con Kenneth Li), Maxwell Nye y Jacob Andreas son todos del MIT y trabajan en redes que juegan juegos de aventura basados ​​en texto. Escribieron frases como «la llave está en el cofre del tesoro», seguidas de «tú tienes la llave». A través del sondeo, encontraron que la red codificaba internamente las variables correspondientes a «tetas» y «tú», cada variable tiene el atributo de si tiene una clave, y actualizó estas variables oración por oración. El sistema no tiene una forma independiente de saber cuál es la caja o la clave, pero captura los conceptos necesarios para la tarea. «Hay alguna representación estatal escondida dentro del modelo», dijo Belinda Li.

Los investigadores se sorprendieron de cuánto pudo aprender el LL.M. del texto. Por ejemplo, Pavlik y su doctorado en ese momento. La estudiante Roma Patel descubrió que estas redes absorben las descripciones de color en los textos de Internet y construyen representaciones internas de colores. Cuando ven la palabra «rojo», la ven no solo como un símbolo abstracto, sino como un concepto que tiene alguna relación con el granate, el carmesí, el fucsia, el óxido, etc. Probar esto es un poco complicado. En lugar de insertar la sonda en la red, los investigadores estudiaron su respuesta a una serie de mensajes de texto. Para verificar si solo se trataba de un eco de las relaciones de color en las referencias en línea, intentaron engañar al sistema diciéndole que el rojo es en realidad verde, como el viejo experimento mental filosófico donde el rojo de una persona es el verde de otra. La evaluación sistemática del color no repite las respuestas incorrectas, sino que cambia adecuadamente para mantener las relaciones correctas.

Sébastien Bubeck, investigador de aprendizaje automático de Microsoft Research, cree que para realizar la función de autocorrección, el sistema busca la lógica subyacente de los datos de entrenamiento, por lo que cuanto más amplio sea el rango de datos, más generales serán las reglas que descubra el sistema. «Tal vez estamos viendo un salto tan grande porque tenemos una diversidad de datos que es lo suficientemente grande como para que el único principio subyacente detrás de todo sea que los organismos inteligentes los produjeron», dijo. «Así que la única forma de interpretar todos estos datos es [for the model] ser inteligente «

Además de extraer el significado subyacente del idioma, el LLM permite el aprendizaje instantáneo. En inteligencia artificial, el término «aprendizaje» se usa a menudo para procesos computacionalmente intensivos en los que los desarrolladores exponen las redes neuronales a gigabytes de datos y modifican sus conexiones internas. Cuando ingresa una consulta en ChatGPT, la red debería haberse solucionado; a diferencia de los humanos, no debería seguir aprendiendo. Por lo tanto, es sorprendente que el LLM realmente pueda aprender de las indicaciones del usuario, una habilidad conocida como «aprendizaje contextual». «Es una forma diferente de aprender que la gente realmente no sabía que existía antes», dijo Ben Goertzel, fundador de la empresa de inteligencia artificial SingularityNET.

Un ejemplo de cómo aprende LLM proviene de la forma en que los humanos interactúan con chatbots como ChatGPT. Puede darle al sistema un ejemplo de cómo quiere que responda, y lo obedecerá. Su salida depende de las últimas miles de palabras que ha visto. Dadas las palabras, su función está dictada por su enlace interno fijo, pero las secuencias de palabras aún brindan cierta flexibilidad. Sitios enteros están dedicados a consejos de «jailbreak» para superar las «barandillas» del sistema (por ejemplo, limitaciones que impiden que el sistema le diga al usuario cómo hacer una bomba casera), generalmente instruyendo al modelo para que simule ser un sistema sin las barandillas. Algunas personas usan el jailbreak con fines superficiales, mientras que otras lo usan para encontrar respuestas más creativas. «Diría que es mejor responder preguntas científicas» que hacer preguntas sin un aviso específico de fuga, dijo William Hahn, codirector del Laboratorio de Robótica Cognitiva y Percepción de Máquinas de la Universidad Florida Atlantic. «Mejor intérprete con una beca».

Otro tipo de aprendizaje situacional ocurre a través de señales de «encadenamiento de pensamientos», lo que significa pedirle a la red que aclare cada paso de su razonamiento, una estrategia que le permite resolver mejor problemas lógicos o aritméticos que requieren múltiples pasos. (Pero lo que hace que el ejemplo de Myrière sea tan sorprendente es que la red encontró los números de Fibonacci sin tal guía).

En 2022, un equipo de Google Research y el Instituto Federal Suizo de Tecnología en Zúrich (Johannes von Oswald, Eyvind Niklasson, Ettore Randazzo, João Sacramento, Alexander Mordvintsev, Andrey Zhmoginov y Max Vladymyrov) demostró que el aprendizaje contextual sigue el mismo procedimiento computacional básico que el aprendizaje estándar, es decir, el descenso de gradiente. Este proceso no estaba programado, el sistema lo descubrió sin ayuda. “Tiene que ser una habilidad adquirida”, dice Blaise Agüera y Arcas, vicepresidente de Google Research, quien cree que el LL.M. puede tener otras habilidades latentes que aún no se han descubierto. «Cada vez que probamos una nueva capacidad que se puede cuantificar, la encontramos», dijo.

Si bien el LLM tiene suficientes puntos ciegos para no calificar para la inteligencia artificial general (AGI), el término para las máquinas ingeniosas que adquieren el cerebro de los animales, estas capacidades emergentes sugieren a algunos investigadores que las empresas tecnológicas están más cerca de AGI de lo que piensan los optimistas. “Son evidencia circunstancial de que es posible que no estemos tan lejos de AGI”, dijo Goertzel en una conferencia de aprendizaje profundo en la Florida Atlantic University en marzo. Los complementos de OpenAI le dan a ChatGPT una arquitectura modular parecida al cerebro humano. «En combinación con GPT-4 [the latest version of the LLM that powers ChatGPT] «El uso de varios complementos puede ser una ruta para especializarse en funciones similares a las humanas», dijo la investigadora del MIT Anna Ivanova.

Pero al mismo tiempo, a los investigadores les preocupa que su capacidad para estudiar estos sistemas se esté cerrando. OpenAI no ha revelado detalles de cómo diseñó y entrenó a GPT-4, en parte porque compite con Google y otros, sin mencionar otros países. “La investigación de la industria probablemente será menos abierta, y las cosas construidas alrededor de los productos estarán más aisladas y organizadas”, dijo Dan Roberts, un físico teórico del MIT que ha aportado su experiencia para comprender la IA.

Esta falta de transparencia no solo perjudica los intereses de los investigadores, sino que también perjudica a los investigadores. También dificulta los esfuerzos por comprender las implicaciones sociales de apresurarse a adoptar tecnologías de IA. «La transparencia con estos modelos es lo más importante para garantizar la seguridad», dijo Mitchell.

LEER
La nueva vacuna de Johnson & Johnson protege contra el COVID grave, así como contra los existentes, dicen los expertos

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba