He aquí por qué la IA podría ser extremadamente peligrosa, ya sea consciente o no
«La idea de que este tipo de cosa pueda volverse más inteligente que una persona… Creo que eso está muy lejos… Obviamente, ya no lo creo», dijo uno de los principales científicos de inteligencia artificial de Google, también conocido como » inteligencia artificial «, dijo Geoffrey Hinton de El padrino después de dejar su trabajo en abril para poder advertir sobre los peligros de la tecnología.
No es el único preocupado. Una encuesta de 2023 de expertos en IA encontró que el 36% temía que el desarrollo de la IA pudiera conducir a una «catástrofe a escala nuclear». Casi 28,000 personas firmaron una carta abierta escrita por el Future of Life Institute, incluidos Steve Wozniak, Elon Musk, los directores ejecutivos de varias compañías de inteligencia artificial y muchos otros tecnólogos de alto perfil, pidiendo una moratoria. Desarrollo de IA de tecnología avanzada.
Como investigador de la conciencia, me preocupa mucho el rápido desarrollo de la inteligencia artificial y soy uno de los firmantes de la carta abierta «El futuro de la vida».
¿Por qué estamos todos tan preocupados? En resumen: la IA se está moviendo demasiado rápido.
El tema clave es la rápida y profunda mejora en las conversaciones en una nueva generación de «chatbots» avanzados o técnicamente conocidos como «Modelos de lenguaje grande» (LLM). Con la inminente «explosión de IA», es posible que solo tengamos una oportunidad de resolver este problema.
Si nos equivocamos, es posible que no podamos vivir. Esto no es una exageración.
Esta rápida aceleración promete conducir pronto a la «inteligencia general artificial» (AGI), y cuando eso suceda, la IA podrá mejorarse a sí misma sin intervención humana. Hará esto de la misma manera que, por ejemplo, AlphaZero AI de Google aprendió a jugar al ajedrez mejor que incluso el mejor jugador de ajedrez humano u otro IA en solo 9 horas después de que se encendió por primera vez. Logró esta hazaña jugando a sí mismo millones de veces.
Un equipo de investigadores de Microsoft que analizó el GPT-4 de OpenAI, que creo que es el mejor de la nueva clase de chatbots avanzados disponibles, dice en un nuevo artículo preliminar que tiene «la chispa de la inteligencia general avanzada».
Cuando se probó en GPT-4, superó al 90 por ciento de los examinados humanos en el Examen Uniforme de Abogados, una prueba estandarizada utilizada para certificar abogados en muchos estados. Esta cifra es un 10 % más alta que la versión anterior de GPT-3.5, que se entrenó en un conjunto de datos más pequeño. Encontraron mejoras similares en muchas otras pruebas estandarizadas.
La mayoría de estas pruebas son pruebas de razonamiento. Esa es la razón principal por la que Bubeck y su equipo concluyeron que GPT-4 «podría considerarse razonablemente una versión temprana (pero aún incompleta) de un sistema de inteligencia general artificial (AGI)».
La velocidad de este cambio es la razón por la que Hinton le dijo al New York Times: «Mira dónde estaba hace cinco años y dónde está ahora. Toma la diferencia y transmítela. Da miedo». mediados de mayo El miércoles, el jefe de OpenAI, Sam Altman, calificó la regulación de «vital».
Una vez que la IA pueda mejorar, puede que no pasen más de unos pocos años y, de hecho, puede que ya lo esté, pero no tenemos forma de saber qué hará la IA o cómo la controlaremos. Esto se debe a que una IA superinteligente (que por definición puede superar a los humanos en una amplia gama de actividades), y esto es lo que más me preocupa, podrá eludir a los programadores y a cualquier otro ser humano manipulando a los humanos para que hagan su voluntad. ; también tendrá la capacidad de actuar en el mundo virtual a través de sus conexiones electrónicas y en el mundo físico a través de su cuerpo robótico.
Esto se conoce como el «problema de control» o «problema de alineación» (consulte el libro Superinteligencia del filósofo Nick Bostrom para obtener una buena descripción general) y ha sido estudiado y debatido por filósofos y científicos como Bostrom, Seth Baum y Eliezer Yudkowsky, durante décadas.
Esto es lo que pensé: ¿por qué esperaríamos que un bebé recién nacido le ganara a un gran maestro de ajedrez? nosotros no. Del mismo modo, ¿por qué esperaríamos poder controlar un sistema de IA superinteligente? (No, no podemos simplemente presionar el interruptor de apagado, porque una IA superinteligente considerará todas las formas posibles en que podríamos hacerlo y tomará medidas para evitar que se apague).
Aquí hay otra forma de verlo: una IA superinteligente podrá hacer en aproximadamente un segundo lo que les tomaría a 100 ingenieros de software humanos hacer un año o más. O elija cualquier tarea, como diseñar un nuevo avión avanzado o un sistema de armas, y la IA superinteligente puede hacerlo en aproximadamente un segundo.
Una vez que los sistemas de IA estén integrados en los robots, podrán actuar en el mundo real, no solo en el mundo virtual (electrónico), con el mismo grado de superinteligencia y, por supuesto, podrán replicar y mejorar su propio ritmo en un sobrehumano. moda.
Cualquier defensa o protección que intentemos construir en estos «dioses» de IA en su camino hacia la divinidad será esperada y fácilmente eliminada una vez que se alcance la superinteligencia. Esto es lo que significa superinteligencia.
No podremos controlarlos, porque todo lo que pensamos, ellos ya lo han pensado, un millón de veces más rápido que nosotros. Cualquier defensa que construyamos se deshará, como Gulliver tirando la cuerda que los liliputienses usan para atarlo.
Algunos argumentan que estos LLM son solo máquinas automatizadas de conciencia cero, lo que significa que si no son conscientes, es menos probable que escapen de su programación. No importa si estos modelos de lenguaje son o serán completamente inconscientes. Para que conste, estoy de acuerdo en que es poco probable que tengan alguna conciencia real en este momento, aunque estoy abierto a nuevos hechos a medida que surjan.
De todos modos, una bomba nuclear puede matar a millones de personas sin darse cuenta. De la misma manera, una IA podría matar a millones de personas sin conciencia de varias maneras, incluida la posibilidad de usar una bomba nuclear directamente (poco probable) o mediante la manipulación de intermediarios humanos (más probable).
Entonces, el debate sobre la conciencia y la IA no tiene mucho sentido en el debate sobre la seguridad de la IA.
Sí, los modelos de lenguaje basados en GPT-4 y muchos otros están ampliamente disponibles. Pero la moratoria solicitada es para detener el desarrollo de cualquier nuevo modelo más potente que 4.0, y esto se puede hacer cumplir, por la fuerza si es necesario. Entrenar estos modelos más potentes requiere energía y granjas de servidores masivas. Se pueden apagar.
Mi brújula moral me dice que es muy imprudente crear estos sistemas cuando ya sabemos que no podemos controlarlos, incluso en un futuro relativamente cercano. Insight es saber cuándo retirarse del borde. Ahora es el momento.
Ya no deberíamos abrir la caja de Pandora como ya se ha abierto.
Este es un artículo de opinión y análisis y las opiniones expresadas por el autor o los autores no son necesariamente las de Noticias-Hoy.