Inteligencia artificial

Oppenheimer nos da una nueva advertencia sobre los peligros de la inteligencia artificial

Hace ochenta y un años, el presidente Franklin D. Roosevelt encargó al joven físico J. Robert Oppenheimer la construcción de un laboratorio secreto en Los Alamos, Nuevo México. Junto con sus colegas, Oppenheimer fue responsable del desarrollo de las primeras armas nucleares del mundo, con el nombre en código de Proyecto Manhattan. En menos de tres años lo consiguieron. En 1945, Estados Unidos lanzó bombas sobre los habitantes de Hiroshima y Nagasaki, en Japón. mató a cientos de miles de personas.

Oppenheimer es conocido como el «padre de la bomba atómica». Aunque sentía una falsa sensación de satisfacción por su servicio en tiempos de guerra y sus logros tecnológicos, también expresó abiertamente la necesidad de frenar una tecnología tan peligrosa.

Pero Estados Unidos ignoró su advertencia y los temores geopolíticos se apoderaron de él. El país se ha apresurado a desplegar sistemas de armas nucleares cada vez más potentes, sin reconocer que estas armas causarán un daño masivo y desproporcionado. Los funcionarios también ignoraron los llamados de Oppenheimer a una mayor cooperación internacional para regular la tecnología nuclear.

El ejemplo de Oppenheimer también tiene implicaciones para nosotros hoy. No debemos cometer con la inteligencia artificial el mismo error que cometimos con las armas nucleares.

Todavía estamos en las primeras etapas de la revolución de la inteligencia artificial. Las empresas de tecnología están compitiendo para construir e implementar modelos de lenguaje a gran escala impulsados ​​por inteligencia artificial, como ChatGPT. Los reguladores deben mantenerse al día.

Si bien la inteligencia artificial ha aportado enormes beneficios, ha expuesto sus posibles daños y abusos. A principios de este año, el Cirujano General de Estados Unidos publicó un informe sobre la crisis de salud mental de los jóvenes. Las investigaciones han descubierto que una de cada tres adolescentes considerará el suicidio en 2022. Los datos son inequívocos: las grandes tecnologías son gran parte del problema. La inteligencia artificial sólo amplificará esta manipulación y explotación. El desempeño de la inteligencia artificial depende de prácticas laborales de explotación tanto a nivel nacional como internacional. Y los modelos de IA opacos y a gran escala alimentados con datos problemáticos tienden a exacerbar los sesgos existentes en la sociedad, afectando todo, desde las sentencias penales y la vigilancia policial hasta la atención médica, los préstamos, la vivienda y la contratación. Además, el impacto ambiental de ejecutar este modelo de inteligencia artificial que consume mucha energía ejerce presión sobre ecosistemas ya frágiles que se tambalean por los efectos del cambio climático.

LEER
4 trampas para recordar

La inteligencia artificial también promete hacer que las tecnologías potencialmente peligrosas sean más fáciles de explotar por parte de actores deshonestos. El año pasado, los investigadores pidieron generar modelos de inteligencia artificial para diseñar nuevas armas químicas. Diseñó 40.000 armas potenciales en 6 horas. Una primera versión de ChatGPT produjo instrucciones para fabricar bombas. Un reciente ejercicio en el aula del MIT demostró cómo la inteligencia artificial puede ayudar a crear patógenos sintéticos que podrían desencadenar la próxima pandemia. Al difundir el acceso a información tan peligrosa, la inteligencia artificial tiene el potencial de convertirse en una versión computarizada de un arma de asalto o un cargador de alta capacidad: una herramienta a través de la cual los delincuentes pueden desatar niveles sin precedentes de daño devastador.

Sin embargo, las empresas y los actores privados no son los únicos que se apresuran a implementar inteligencia artificial no probada. También debemos tener cuidado con los gobiernos que promueven la militarización de la inteligencia artificial. Ya contamos con un precario sistema de lanzamiento nuclear basado en una destrucción mutua asegurada que deja a los líderes mundiales con sólo unos minutos para decidir si lanzan un arma nuclear en caso de que se perciba un ataque. La automatización de los sistemas de lanzamiento nuclear impulsada por la inteligencia artificial pronto podría eliminar la práctica de «los seres humanos en el circuito», una salvaguardia necesaria para garantizar que una inteligencia informática defectuosa no conduzca a una guerra nuclear, como ha sucedido tantas veces. La carrera por la automatización militar tiene como objetivo mejorar la capacidad de los tomadores de decisiones para responder en un mundo cada vez más complejo, pero podría conducir a conflictos que se salgan de control. Si los países se apresuran a adoptar tecnología de inteligencia artificial militarizada, todos perderemos.

LEER
Cómo la IA sabe cosas que nadie le cuenta

Como en la década de 1940, ahora existe una ventana crítica para dar forma al desarrollo de esta tecnología emergente y potencialmente peligrosa. Oppenheimer reconoció que Estados Unidos debería trabajar con sus adversarios más obstinados para controlar los aspectos peligrosos de la tecnología nuclear a nivel internacional y al mismo tiempo perseguir sus usos pacíficos. Para castigar al hombre y la idea, Estados Unidos inició una carrera armamentista masiva de la Guerra Fría mediante el desarrollo de la bomba de hidrógeno y sus costosos y a veces extraños sistemas de lanzamiento y pruebas atmosféricas asociadas. El complejo nuclear-industrial resultante ha perjudicado desproporcionadamente a los más vulnerables. La extracción de uranio y las pruebas atmosféricas han causado cáncer entre los residentes de Nuevo México, las comunidades marshalesas y los miembros de la Nación Navajo. El gasto despilfarrador, los costos de oportunidad y el impacto en las comunidades marginadas son inconmensurables, sin mencionar los innumerables encuentros cercanos y la proliferación de armas nucleares que se producirían. Hoy, necesitamos tanto la cooperación internacional como la regulación nacional para garantizar el desarrollo seguro de la inteligencia artificial.

El Congreso debe actuar ahora para regular las empresas de tecnología y garantizar que prioricen el interés público colectivo. El Congreso debería primero aprobar mi Ley de Protección de la Privacidad Infantil en Internet, la Ley de Justicia Algorítmica y Transparencia en Internet y un proyecto de ley que prohíba el lanzamiento de armas nucleares mediante inteligencia artificial. Pero esto es solo el principio. Guiado por el Proyecto de Declaración de Derechos de la Inteligencia Artificial de la Casa Blanca, el Congreso debe aprobar regulaciones amplias para detener esta carrera imprudente para construir y desplegar IA insegura. Las decisiones sobre cómo y dónde utilizar la inteligencia artificial no pueden dejarse en manos exclusivas de las empresas de tecnología. Deben centrarse en las comunidades más vulnerables a la explotación y el daño de la inteligencia artificial. Debemos estar abiertos a trabajar tanto con aliados como con adversarios para evitar el uso indebido de la inteligencia artificial por parte de militares y civiles.

En los albores de la era nuclear, Estados Unidos no hizo caso de las advertencias de Oppenheimer sobre los peligros de una carrera armamentista y dio el pistoletazo de salida. Ocho décadas después, tenemos una responsabilidad moral y un interés claro de no repetir los errores del pasado.

Este es un artículo de opinión y análisis, y las opiniones expresadas por el autor no representan necesariamente las opiniones de Noticias-Hoy.

LEER
El éxito de Dall-e o Midjourney da forma a la nueva economía en torno a las imágenes de IA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba