Inteligencia artificial

La inteligencia artificial general no es tan inminente como podría pensarse

Para la persona promedio, debe parecer que el campo de la inteligencia artificial está progresando inmensamente. De acuerdo con los comunicados de prensa y algunas de las cuentas de los medios más efusivas, DALL-E 2 de OpenAI aparentemente puede crear imágenes espectaculares a partir de cualquier texto; otro sistema OpenAI llamado GPT-3 puede hablar de casi cualquier cosa; y un sistema llamado Gato que fue lanzado en mayo por DeepMind, una división de Alphabet, aparentemente funcionó bien en todas las tareas que la compañía podía realizar. Uno de los ejecutivos de alto nivel de DeepMind llegó incluso a jactarse que en la búsqueda de la inteligencia artificial general (AGI), IA que tiene la flexibilidad y el ingenio de la inteligencia humana, «¡El juego ha terminado!» Y Elon Musk dijo recientemente que se sorprendería si no tuviéramos inteligencia general artificial para 2029.

No se deje engañar. Es posible que algún día las máquinas sean tan inteligentes como las personas, y tal vez incluso más inteligentes, pero el juego está lejos de terminar. Todavía hay un inmenso cantidad de trabajo por hacer para fabricar máquinas que realmente puedan comprender y razonar sobre el mundo que las rodea. Lo que realmente necesitamos en este momento es menos posturas y más investigación básica.

Sin duda, hay algunas formas en las que la IA realmente está progresando: las imágenes sintéticas se ven cada vez más realistas y el reconocimiento de voz a menudo puede funcionar en entornos ruidosos, pero todavía estamos a años luz de distancia de los objetivos generales a nivel humano. IA que puede comprender el verdadero significado de artículos y videos, o lidiar con obstáculos e interrupciones inesperados. Todavía estamos atrapados precisamente en los mismos desafíos que los científicos académicos (incluido yo mismo) han estado señalando durante años: lograr que la IA sea confiable y hacer frente a circunstancias inusuales.

Tomemos como ejemplo al recientemente célebre Gato, un presunto experto en todos los oficios, y cómo subtituló una imagen de un lanzador lanzando una pelota de béisbol. El sistema devolvió tres respuestas diferentes: “Un jugador de béisbol lanzando una pelota sobre un campo de béisbol”, “Un hombre lanzando una pelota de béisbol a un lanzador en un campo de béisbol” y “Un jugador de béisbol al bate y un receptor en la tierra durante un juego de béisbol.” La primera respuesta es correcta, pero las otras dos respuestas incluyen alucinaciones de otros jugadores que no se ven en la imagen. El sistema no tiene idea de lo que está realmente en la imagen en comparación con lo que es típico de imágenes más o menos similares. Cualquier aficionado al béisbol reconocería que este es el lanzador que acaba de lanzar la pelota, y no al revés, y aunque esperamos que un receptor y un bateador estén cerca, obviamente no aparecen en la imagen.

LEER
4 principios de los sistemas de IA responsables
Crédito: Bluesguy de Nueva York/Flickr

Un jugador de béisbol lanzando una pelota.
encima de un campo de béisbol.

Un hombre lanzando una pelota de béisbol a un
lanzador en un campo de béisbol.

Un jugador de béisbol al bate y un
receptor en la tierra durante un
juego de beisbol

Del mismo modo, DALL-E 2 no pudo distinguir la diferencia entre un cubo rojo encima de un cubo azul y un cubo azul encima de un cubo rojo. Una versión más nueva del sistema, lanzada en mayo, no podía notar la diferencia entre un astronauta montando a caballo y un astronauta montando a caballo.

Ilustraciones de cuatro paneles de un astronauta montando a caballo
Crédito: Imagen; De “Modelos fotorrealistas de difusión de texto a imagen con comprensión profunda del lenguaje”, por Chitwan Saharia et al. Preprint publicado en línea el 23 de mayo de 2023

Cuando sistemas como DALL-E cometen errores, el resultado es divertido, pero otros errores de IA crean problemas serios. Para tomar otro ejemplo, un Tesla con piloto automático condujo recientemente directamente hacia un trabajador humano que llevaba una señal de alto en medio de la carretera, y solo redujo la velocidad cuando intervino el conductor humano. El sistema podía reconocer a los humanos por sí mismos (tal como aparecían en los datos de entrenamiento) y las señales de alto en sus ubicaciones habituales (nuevamente, tal como aparecían en las imágenes entrenadas), pero no disminuyó la velocidad cuando se enfrentó a la combinación inusual de los dos. que puso la señal de alto en una posición nueva e inusual.

Desafortunadamente, el hecho de que estos sistemas aún no sean confiables y luchen con circunstancias novedosas generalmente se oculta en la letra pequeña. Gato funcionó bien en todas las tareas informadas por DeepMind, pero rara vez tan bien como otros sistemas contemporáneos. GPT-3 a menudo crea una prosa fluida, pero todavía tiene problemas con la aritmética básica y tiene tan poco contacto con la realidad que es propenso a crear oraciones como «Algunos expertos creen que el acto de comerse un calcetín ayuda al cerebro a salir de su estado alterado». como resultado de la meditación”, cuando ningún experto jamás dijo tal cosa. Una mirada superficial a los titulares recientes no le informaría acerca de ninguno de estos problemas.

La trama secundaria aquí es que los mayores equipos de investigadores en IA ya no se encuentran en la academia, donde la revisión por pares solía ser la moneda del reino, sino en las corporaciones. Y las corporaciones, a diferencia de las universidades, no tienen ningún incentivo para jugar limpio. En lugar de someter sus ostentosos artículos nuevos al escrutinio académico, han decidido publicarlos mediante comunicados de prensa, seduciendo a los periodistas y eludiendo el proceso de revisión por pares. Solo sabemos lo que las empresas quieren que sepamos.

En la industria del software, hay una palabra para este tipo de estrategia: demostración, software diseñado para verse bien para una demostración, pero no necesariamente lo suficientemente bueno para el mundo real. A menudo, el demoware se convierte en vaporware, anunciado para asombrar y asombrar a fin de desalentar a los competidores, pero nunca lanzado en absoluto.

Sin embargo, los pollos tienden a volver a casa para descansar, eventualmente. La fusión fría puede haber sonado genial, pero aún no puedes conseguirla en el centro comercial. Es probable que el costo en IA sea un invierno de expectativas desinfladas. Demasiados productos, como automóviles sin conductor, radiólogos automatizados y agentes digitales de uso múltiple, se han demostrado, publicitado y nunca entregado. Por ahora, los dólares de inversión siguen siendo prometedores (¿a quién no le gustaría un automóvil autónomo?), pero si no se resuelven los problemas centrales de confiabilidad y cómo hacer frente a los valores atípicos, la inversión se agotará. Nos quedaremos con poderosos deepfakes, enormes redes que emiten inmensas cantidades de carbono y sólidos avances en traducción automática, reconocimiento de voz y reconocimiento de objetos, pero muy poco más para mostrar a pesar de todo el bombo prematuro.

El aprendizaje profundo ha mejorado la capacidad de las máquinas para reconocer patrones en los datos, pero tiene tres fallas principales. Los patrones que aprende son, irónicamente, superficiales, no conceptuales; los resultados que crea son difíciles de interpretar; y los resultados son difíciles de usar en el contexto de otros procesos, como la memoria y el razonamiento. Como señaló el científico informático de Harvard Les Valiant, «El desafío central [going forward] es unificar la formulación de… aprendizaje y razonamiento.” No puedes lidiar con una persona que lleva una señal de alto si realmente no entiendes lo que es una señal de alto.

Por ahora, estamos atrapados en un «mínimo local» en el que las empresas buscan puntos de referencia, en lugar de ideas fundamentales, logrando pequeñas mejoras con las tecnologías que ya tienen en lugar de hacer una pausa para hacer preguntas más fundamentales. En lugar de buscar demostraciones llamativas directas a los medios, necesitamos más personas que hagan preguntas básicas sobre cómo construir sistemas que puedan aprender y razonar al mismo tiempo. En cambio, la práctica de la ingeniería actual está muy por delante de las habilidades científicas, trabajando más duro para usar herramientas que no se entienden completamente que para desarrollar nuevas herramientas y una base teórica más clara. Esta es la razón por la cual la investigación básica sigue siendo crucial.

Que una gran parte de la comunidad de investigación de la IA (como los que gritan «Game Over») ni siquiera se dé cuenta de eso es, bueno, desgarrador.

Imagínese si algún extraterrestre estudiara toda la interacción humana solo mirando las sombras en el suelo, notando, para su crédito, que algunas sombras son más grandes que otras, y que todas las sombras desaparecen en la noche, y tal vez incluso notando que las sombras crecían y crecían regularmente. se encogió en ciertos intervalos periódicos, sin siquiera mirar hacia arriba para ver el sol o reconocer el mundo tridimensional de arriba.

Es hora de que los investigadores de inteligencia artificial miren hacia arriba. No podemos “resolver la IA” solo con las relaciones públicas.

Este es un artículo de opinión y análisis, y las opiniones expresadas por el autor o autores no son necesariamente las de Científico americano.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba