Lo que necesita saber sobre GPT-4
Kelso Harper: Probablemente haya escuchado muchas conversaciones sobre ChatGPT desde que se lanzó el año pasado.
locutor de telediario: El CEO de la compañía detrás de ChatGPT dice que la inteligencia artificial remodelará la sociedad.
Presentador de noticias: ChatGPT es un modelo creado por OpenAI que responde a señales de manera similar a la humana.
Sofía Bushwick: Pero este chatbot es solo una interfaz entre el usuario y un gran modelo de lenguaje llamado GPT-3.5. El mes pasado, el desarrollador del modelo, la firma de investigación tecnológica OpenAI, anunció su modelo más avanzado hasta la fecha. El nuevo GPT-4 es realmente tan bueno para resolver problemas y escribir código y texto sin procesar que algunos investigadores de IA están pidiendo a todos que presionen el botón de pausa.
locutor de telediario: Ahora, una carta abierta firmada por Elon Musk, Steve Wozniak y algunos de los principales científicos de IA exige una moratoria de seis meses en el desarrollo de IA, argumentando que solo cuando sabemos que los sistemas de IA poderosos producirán impactos positivos y los riesgos solo deben desarrollarse cuando serán manejables.
arpista: Entonces, ¿cuál es la diferencia real entre GPT-4 y su predecesor? ¿Por qué asusta tanto a los expertos en IA?
Bushwick: Soy Sophie Bushwick
arpista: Soy Kelso Harper
– Estás escuchando Tech, Quickly.
arpista: Entonces, ¿qué es exactamente esta inteligencia artificial?
Bushwick: GPT significa Transformadores Preentrenados Generativos, un gran modelo de lenguaje, un programa de inteligencia artificial que puede analizar y generar texto. Básicamente, los investigadores construyeron un tipo de programa de aprendizaje automático llamado red neuronal porque su estructura se inspiró en el cerebro humano. Luego lo alimentan con un montón de texto para que pueda aprender qué palabras generalmente siguen los patrones de qué otras palabras, y luego eventualmente generar sus propias oraciones. Luego, los humanos lo prueban para que puedan modificar sus respuestas para que sean más coherentes.
arpista: Sí, he jugado un poco con ChatGPT, puede mantener conversaciones y está muy bien escrito. Quiero decir, incluso hicimos una declaración sobre ChatGPT por qué debería ser regulado, ¿verdad? ¿Pero estás diciendo que GPT-4 es mejor?
Bushwick: GPT-4 supera a GPT-3.5 en algunas áreas, pero adolece de algunos de los mismos problemas. Así que empecemos con las cosas buenas. GPT-4 puede hacer algo diferente, a saber, analizar imágenes y texto, aunque no genera imágenes sin procesar. Pero esto se puede usar, por ejemplo, para describir objetos en el entorno que rodea a una persona con discapacidad visual. O, en una demostración, se le dio un boceto de un sitio web simple y escribió el código para crear ese sitio web.
arpista: Bueno, eso es genial e impresionante.
Bushwick: Sí, también puede procesar y generar bloques de texto más largos que su predecesor sin atascarse en temas irrelevantes. Y mejor imitando el estilo de escritura de un autor en particular. Y es mejor en la resolución de problemas. Entonces, el equipo de OpenAI sometió a GPT-4 y GPT-3.5 a una serie de exámenes, incluidos el SAT, GRE, algunos exámenes AP e incluso algunos exámenes de sommelier. GPT-4 logra constantemente puntajes altos, mejor que sus predecesores, incluso mejor que algunos humanos. Como resultado, obtuvo un puntaje de 90% en el examen de la barra simulada.
arpista: Bueno, en realidad, eso es un poco grosero. Esta IA ni siquiera ha bebido un sorbo de vino y es más sofisticada que yo.
Bushwick: Quiero decir, afortunadamente para nosotros los humanos inseguros, GPT 4 no es bueno en todo. No obtuvo una buena puntuación en el examen de Lengua o Literatura Inglesa AP. Así que lo hemos hecho.
arpista: Gracias a dios. Realmente tranquilizó mi frágil ego. Pero mencionaste que GPT-4 todavía tiene algunos de los mismos problemas que causaron problemas con GPT-3.5 y los chatbots, ¿verdad?
Bushwick: Sí, todavía da respuestas sesgadas a veces, y también es alucinante.
arpista: Entonces, la alucinación es inventar algo con confianza, ¿verdad? ¿Como afirmar que hay humanos en Marte?
Bushwick: Correcto, eso es todo. Esto sucede porque en realidad no sabe de lo que está hablando. Simplemente es bueno para decir cosas que parecen ser ciertas.
arpista: correcto.
Bushwick: Esto ha causado problemas. En un caso, GPT afirmó falsamente que un profesor de derecho de California acosó sexualmente a un estudiante. Incluso cita un artículo de noticias ficticio que en realidad no existe para respaldar sus afirmaciones.
arpista: Dios, eso no suena bien.
Bushwick: En Australia, un hombre planea demandar a ChatGPT por afirmar falsamente que fue encarcelado por soborno y corrupción. Por lo tanto, estas alucinaciones pueden tener efectos en el mundo real.
arpista: Wow, ¿qué podemos hacer con estos problemas?
Bushwick: Un grupo de investigadores y desarrolladores de IA ha publicado una carta abierta pidiendo una moratoria en el desarrollo de IA. Pero luego, otros especialistas en ética de la IA señalaron que estas afirmaciones en realidad están exagerando la tecnología, la hacen parecer súper poderosa. Por lo tanto, otros investigadores argumentan que debemos centrarnos en abordar los problemas técnicos actuales, como ser más transparentes sobre los datos de entrenamiento utilizados, comunicar claramente cómo las alucinaciones afectan la credibilidad de modelos como GPT-4 y asegurarnos de que los modelos con los que interactuamos directamente. ejemplo, ChatGPT o Google’s Bard ya han tomado medidas de protección antes del lanzamiento.
arpista: Bueno, entonces existe el temor de que esto pueda conducir a una inteligencia general artificial (AGI) superpoderosa, capaz de razonar y pensar a la par de los humanos.
Bushwick: Existe cierto debate sobre esta posibilidad.Un investigador publica un artículo que afirma que AGI brilla en GPT-4
arpista: Está bien..
Bushwick: Aunque ese artículo ha recibido muchas críticas. No creo que este tipo de modelo se convierta en AGI; no hay una mente detrás, es solo una ilusión. Pero GPT-4 muestra que tiene capacidades emergentes.
arpista: ¿Habilidad emergente?
[Clip: 2001: A Space Odyssey]
Hal: Abre la puerta de la cápsula, Hal.
dave: Lo siento, Dave. Me temo que no puedo.
Bushwick: Casi sacado directamente de la ciencia ficción, sí.
arpista: Ay dios mío.
Bushwick: Bueno, esencialmente, eso significa que puede hacer lo que no está capacitado para hacer. Bien. Al igual que no se enseña directamente cómo traducir texto a diferentes idiomas o cómo hacer aritmética. Pero puede hacer estas cosas. Otros modelos de lenguaje han mostrado capacidades emergentes una vez escalados a una escala lo suficientemente grande y entrenados en una cantidad de datos suficientemente grande.
Pero no estamos muy seguros de por qué están ahí estas habilidades, porque realmente no podemos entender qué sucede detrás de ellas.
arpista: Bueno, da miedo. DE ACUERDO Pero los datos de entrenamiento en sí mismos pueden causar algunos problemas, ¿verdad? Como enseñando a estos modelos a ser parciales.
Bushwick: Pues porque los humanos somos los que generamos los datos de entrenamiento. (canta) «Somos nosotros. ¡Hola! Nosotros somos el problema, y el problema somos nosotros».
arpista: Esto es real.
Bushwick: Pero la respuesta es en realidad más que datos de entrenamiento sesgados. A los humanos nos gusta proyectar nuestros pensamientos y emociones sobre otros objetos, como si asumiéramos que si estamos teniendo una conversación, la entidad del otro lado es ella misma. Pero de hecho, no lo es.
arpista:¿Es realmente tan malo pensar en un chatbot como una persona o verlo como una persona?
Bushwick: Cuando empatizamos con las máquinas, asumimos que piensan como nosotros. Es más probable que confiemos en ellos. Cuanto mejor sean estos modelos para generar texto similar al humano, más podrán influir en nuestro comportamiento. Bien. Quiero decir, recuerda los primeros días de la asistencia GPS, cuando las personas aún sabían la mejor ruta de memoria o en un mapa en papel, pero luego tomaban el camino equivocado porque el GPS se lo decía.
arpista: ¡Sí, terminaron conduciendo hacia el lago!
Bushwick: ¡completamente! ¡Porque confían en el GPS! Ahora imagínalos siguiendo instrucciones de máquinas en otros dominios.
Las declaraciones escritas por chips de chat pueden influir en las decisiones de alguien al hacer juicios morales, según un estudio reciente. Incluso cuando los participantes no creían que esto estaba sucediendo, no pensaron que las declaraciones los estaban afectando, aunque sí lo hicieron.
¿Qué pasaría si alguien decidiera por quién votar en función de la información proporcionada por un chatbot? La información que conocemos puede incluir alucinaciones inexactas.
arpista: correcto. Parece que esto será un problema.
Bushwick: Y no se necesita un AGI súper poderoso para causar este problema también.
arpista: Sí. Bueno, dispara.Gracias por brindarnos una actualización tranquilizadora sobre el estado de la IA para la generación de texto.
Bushwick: Es un poco provocador de ansiedad, pero también emocionante. Me siento como un perro desde arriba, pero en lugar de una ardilla, estoy constantemente distraído por las nuevas noticias de IA.
arpista: Asombroso. Gran devolución de llamada.
Bushwick: Gracias
arpista: Bueno, gracias de nuevo. Gracias por una rápida escucha de Tech. Soy Kelso Harper.
Bushwick: Soy Sophie Bushwick.
Tech, Quickly es parte del podcast de Noticias-Hoy Science, Quickly, producido por Jeff DelViscio, Tulika Bose y Kelso Harper. Nuestro tema musical está compuesto por Dominic Smith.
arpista: Y diríjase a sciam.com para obtener noticias tecnológicas más actualizadas y detalladas.