La inteligencia artificial es una amenaza existencial, pero no de la forma que crees
El siguiente artículo se reproduce con permiso de The Conversation, una publicación en línea que cubre las últimas investigaciones.
El auge de ChatGPT y sistemas de IA similares ha ido acompañado de un aumento espectacular de la ansiedad sobre la IA. En los últimos meses, altos ejecutivos e investigadores de seguridad de la IA han estado ofreciendo predicciones conocidas como «P(doom)»: la probabilidad de que la inteligencia artificial provoque desastres a gran escala.
Sobre el apoyo al periodismo científico
Si disfrutó este artículo, considere apoyar nuestro periodismo galardonado suscribiéndose. Al comprar una suscripción, ayudas a garantizar un futuro de historias impactantes sobre los descubrimientos e ideas que dan forma a nuestro mundo actual.
En mayo de 2023, la organización sin fines de lucro Centro para la Seguridad de la Inteligencia Artificial publicó una breve declaración: “Al igual que otros riesgos a escala social, como las epidemias y la guerra nuclear, mitigar los riesgos de extinción que plantea la inteligencia artificial debería ser una prioridad global. La declaración fue firmada por muchos actores clave en el campo, incluidos los líderes de OpenAI, Google y Anthropic, así como dos de los llamados “padrinos” de la inteligencia artificial: Geoffrey Hinton y Yoshua Bengio.
¿Cómo se supone que funciona este horror existencial?, te preguntarás. Un escenario famoso es el experimento mental de «maximización de clips» propuesto por el filósofo de la Universidad de Oxford, Nick Bostrom. La idea es que un sistema de inteligencia artificial encargado de producir tantos clips como sea posible podría hacer todo lo posible para encontrar materias primas, como destruir fábricas y provocar accidentes automovilísticos.
En una variación que requiere menos recursos, la IA tiene la tarea de hacer reservas para un restaurante popular, apagando las redes celulares y los semáforos para evitar que otros clientes consigan una mesa.
Suministros de oficina o cena, la idea básica es la misma: la inteligencia artificial se está convirtiendo rápidamente en una inteligencia extraterrestre que es buena para lograr sus objetivos pero peligrosa porque no necesariamente se alinea con los valores morales de sus creadores. Y, en su versión más extrema, este argumento evoluciona hacia una ansiedad explícita acerca de que la inteligencia artificial esclavice o destruya a la humanidad.
daño real
Durante los últimos años, mis colegas del Centro de Ética Aplicada de la UMass Boston y yo hemos estado estudiando el impacto de la inteligencia artificial en la autocomprensión de las personas, y creo que estas ansiedades catastróficas son exageradas y equivocadas.
Sí, la capacidad de la inteligencia artificial para crear deepfakes convincentes de vídeo y audio da miedo y puede ser utilizada indebidamente por personas con intenciones maliciosas. De hecho, esto ya está sucediendo: es posible que agentes rusos hayan intentado avergonzar al crítico del Kremlin Bill Browder para que hable con una encarnación del ex presidente ucraniano Petro Poroshenko. Los ciberdelincuentes han estado utilizando clones de voz de inteligencia artificial para llevar a cabo una variedad de delitos, desde robos de alta tecnología hasta fraudes comunes.
Los sistemas de toma de decisiones de IA que brindan aprobaciones de préstamos y recomendaciones de contratación corren el riesgo de sufrir sesgos algorítmicos porque ejecutan materiales de capacitación y modelos de toma de decisiones que reflejan prejuicios sociales de larga data.
Se trata de grandes cuestiones que requieren la atención de los responsables de la formulación de políticas. Pero han existido por un tiempo y no han sido catastróficos.
No en la misma liga
La declaración del Centro para la Seguridad de la Inteligencia Artificial clasifica la inteligencia artificial junto con las pandemias y las armas nucleares como un riesgo importante para la civilización. Esta comparación es problemática. La COVID-19 ha matado a casi 7 millones de personas en todo el mundo, ha desencadenado una crisis de salud mental masiva y continua y ha creado desafíos económicos, incluida la escasez crónica de la cadena de suministro y una inflación galopante.
[Lasarmasnuclearesprobablementemataronamásde200000personasenHiroshimayNagasakien1945mataronamuchasmásdecáncerenlosañossiguientesprovocarondécadasdeprofundaansiedaddurantelaGuerraFríayllevaronalmundoalbordedeladestruccióndurantelaGuerradelosMisilesCubanosCrisisen1962TambiéncambianloscálculosdeloslíderesnacionalessobrecómoresponderalaagresióninternacionalcomoocurreactualmenteconlainvasiónrusadeUcrania[1945年,核武可能在廣島和長崎奪走了超過20萬人的生命,在隨後的幾年裡奪走了更多人的癌症生命,在冷戰期間引發了數十年的深刻焦慮,並在古巴飛彈危機期間將世界推向毀滅的邊緣1962年。它們也改變了國家領導人對如何應對國際侵略的計算,正如目前俄羅斯入侵烏克蘭的情況一樣。
La inteligencia artificial simplemente no tiene la capacidad de causar este tipo de daño. El escenario del clip y otros escenarios similares son ciencia ficción. Las aplicaciones de IA existentes realizan tareas específicas en lugar de emitir juicios amplios. La tecnología aún está lejos de ser capaz de determinar y planificar los objetivos y objetivos subordinados necesarios para cerrar el tráfico y poder conseguir un asiento en un restaurante, o volar una fábrica de automóviles para satisfacer su ansia de sujetapapeles. .
Esta tecnología no sólo carece de capacidades sofisticadas para los múltiples niveles de juicio involucrados en estos escenarios, sino que tampoco tiene acceso autónomo a suficientes partes de nuestra infraestructura crítica para comenzar a causar este daño.
lo que significa ser humano
De hecho, existe un riesgo existencial inherente al uso de la inteligencia artificial, pero este riesgo es un riesgo existencial filosófico, no un riesgo apocalíptico. La inteligencia artificial en su forma actual puede cambiar la forma en que las personas se ven a sí mismas. Reduce las habilidades y experiencias que la gente cree que son esenciales para el ser humano.
Por ejemplo, los humanos son criaturas críticas. Las personas sopesan racionalmente los detalles y hacen juicios cotidianos en el trabajo y en su tiempo libre, decidiendo a quién contratar, quién debe obtener un préstamo, qué vigilar, etc. Pero cada vez más, los juicios se automatizan y se delegan a algoritmos. El mundo no se acabará cuando esto suceda. Pero las personas pierden gradualmente la capacidad de emitir estos juicios por sí mismas. Cuantas menos cosas haga la gente, menos capaz será de hacerlo.
O consideremos el papel que desempeñan las oportunidades en la vida de las personas. Los seres humanos valoran los encuentros fortuitos: toparse con un lugar, una persona o una actividad, verse atraídos por ellos y apreciar retrospectivamente el papel que desempeña la casualidad en estos descubrimientos significativos. Pero el papel de los motores de recomendación algorítmicos es reducir esta contingencia y reemplazarla con planificación y predicción.
Finalmente, considere las capacidades de escritura de ChatGPT. La tecnología está eliminando el papel de las tareas escritas en la educación superior. Si es así, los educadores perderán una herramienta fundamental para enseñar a los estudiantes a pensar críticamente.
No muerto sino disminuido
Entonces no, la inteligencia artificial no va a hacer estallar el mundo. Pero su aceptación cada vez más acrítica, en una variedad de contextos estrechos, significa la erosión gradual de algunas de las habilidades más importantes de la humanidad. Los algoritmos ya están socavando la capacidad de las personas para emitir juicios, disfrutar de encuentros fortuitos y perfeccionar el pensamiento crítico.
La humanidad sobrevivirá a tales pérdidas. Pero en el proceso nuestra forma de supervivencia se empobrecerá. La enorme ansiedad que rodea la catástrofe de la IA que se avecina, la Singularidad, Skynet o como se quiera pensar, oscurece estos costos más sutiles. Recordemos la famosa frase final de TS Eliot en The Hollow Men: “Así es como termina el mundo”, escribió, “no con un estallido sino con un gemido”.
Este artículo apareció originalmente en The Conversation. Lea el artículo original.