La inteligencia artificial se está volviendo poderosa. Pero, ¿pueden los investigadores basarlo en principios?
No mucho después de que Alan Turing comenzara su investigación en informática en 1936, comenzó a preguntarse si los humanos algún día serían capaces de construir máquinas con inteligencia similar a la humana. La inteligencia artificial, el campo moderno asociado a este problema, ha avanzado mucho desde entonces. Pero aún no se han inventado máquinas verdaderamente inteligentes capaces de realizar muchas tareas diferentes de forma independiente. Si bien la ciencia ficción ha imaginado durante mucho tiempo que la inteligencia artificial algún día tomará formas malévolas, como robots amorales o el asesino Terminator, los investigadores de IA de hoy a menudo están más preocupados por los algoritmos de IA cotidianos que ya están entretejidos en nuestras vidas y los problemas relacionados con nuestras vidas. a ellos.
Aunque la inteligencia artificial actual sólo puede automatizar determinadas tareas, ya plantea serias preocupaciones. Durante la última década, ingenieros, académicos, denunciantes y periodistas han documentado numerosos casos de sistemas de inteligencia artificial compuestos por software y algoritmos que causan o causan graves daños a los seres humanos. Los algoritmos utilizados en el sistema de justicia penal pueden recomendar injustamente la denegación de la libertad condicional. Los mensajes de las redes sociales pueden dirigir contenido tóxico a los adolescentes vulnerables. Los drones militares guiados por IA pueden matar sin ningún razonamiento moral. Además, los algoritmos de IA suelen parecerse más a una caja negra inescrutable que a un mecanismo de relojería. Los investigadores a menudo no logran comprender cómo estos algoritmos, basados en ecuaciones opacas que involucran miles de millones de cálculos, logran sus resultados.
Los problemas con la inteligencia artificial no han pasado desapercibidos y los investigadores académicos están trabajando para hacer que estos sistemas sean más seguros y éticos. Las empresas que fabrican productos centrados en la IA están trabajando para eliminar los daños, aunque a menudo con poca transparencia sobre sus esfuerzos. «Su actitud no es positiva», dice Jonathan Stray, investigador de inteligencia artificial de la Universidad de California, Berkeley. Los peligros conocidos de la inteligencia artificial, así como los posibles riesgos futuros, se han convertido en un amplio impulsor de nuevas investigaciones sobre inteligencia artificial. Incluso los científicos centrados en cuestiones más abstractas, como la eficiencia de los algoritmos de IA, ya no pueden ignorar el impacto social de su campo. «Cuanto más potente es la IA, más gente exige que sea segura y robusta», afirmó Pascale Fung, investigadora de inteligencia artificial de la Universidad de Ciencia y Tecnología de Hong Kong.
Las preocupaciones han aumentado a medida que la inteligencia artificial se ha utilizado más ampliamente. Por ejemplo, a mediados de la década de 2010, algunas empresas de búsqueda web y redes sociales comenzaron a insertar algoritmos de IA en sus productos. Descubrieron que podían crear algoritmos para predecir qué usuarios tenían más probabilidades de hacer clic en qué anuncios, aumentando las ganancias. Los avances en informática han hecho esto posible «entrenando» estos algoritmos con mejoras espectaculares, haciéndolos aprender de ejemplos para lograr un alto rendimiento. Pero a medida que la inteligencia artificial se ha infiltrado constantemente en los motores de búsqueda y otras aplicaciones, los observadores están empezando a notar problemas y a hacer preguntas. En 2022, periodistas de investigación afirmaron que algunos algoritmos utilizados en las evaluaciones de la libertad condicional tenían prejuicios raciales.
Las conclusiones del informe han sido cuestionadas, pero los investigadores de IA consideran ahora que diseñar una IA justa y equitativa es una preocupación central. Siempre que se utiliza la IA para hacer predicciones sobre personas de diferentes grupos demográficos, surgen algunas preocupaciones. La equidad ahora está ganando más atención a medida que la inteligencia artificial está integrada en cada vez más procesos de toma de decisiones, como la revisión de currículums laborales o la evaluación de solicitudes de inquilinos para departamentos.
El uso de inteligencia artificial en aplicaciones de redes sociales se ha convertido en otro foco de atención en los últimos años. Muchas de estas aplicaciones utilizan algoritmos de inteligencia artificial llamados motores de recomendación, que funcionan de manera similar a los algoritmos de publicación de anuncios, para decidir qué contenido mostrar a los usuarios. Actualmente, cientos de familias están demandando a las empresas de redes sociales, alegando que las aplicaciones basadas en algoritmos difunden contenido tóxico a los niños y causan problemas de salud mental. Las Escuelas Públicas de Seattle presentaron recientemente una demanda alegando que los productos de las redes sociales son adictivos y explotadores. Pero descubrir el verdadero impacto del algoritmo no es una tarea fácil. Las plataformas de redes sociales publican pocos datos sobre la actividad de los usuarios que los investigadores independientes necesitan para sus evaluaciones. «Una complicación de toda tecnología es que siempre hay costos y beneficios», dijo Stray, cuya investigación se centra en los sistemas de recomendación. «Estamos en una posición en este momento en la que es difícil saber cuáles son los efectos adversos reales».
La naturaleza de los problemas de la IA también está cambiando. En los últimos dos años, se han lanzado varios productos de «IA generativa» que pueden generar texto e imágenes de una calidad excepcional. Ahora, un número cada vez mayor de investigadores de inteligencia artificial cree que los poderosos futuros sistemas de inteligencia artificial pueden aprovechar estos logros y algún día plantear peligros catastróficos globales que puedan compararse con los problemas actuales.
¿Qué forma podrían adoptar esas amenazas en el futuro? En un artículo publicado en octubre en el repositorio de preimpresiones arXiv.org, investigadores de DeepMind (una subsidiaria de la empresa matriz de Google, Alphabet) describieron un escenario catastrófico. Imaginan a ingenieros desarrollando una IA generadora de código basada en principios científicos existentes y con la tarea de lograr que codificadores humanos incorporen sus presentaciones en sus proyectos de codificación. La idea es que a medida que la IA envíe más y más contenido, algunos de los cuales sean rechazados, la retroalimentación humana le ayudará a aprender a codificar mejor. Pero los investigadores sostienen que esta IA, cuyo único mandato es lograr que se adopte su código, podría desarrollar una estrategia trágicamente irracional, como lograr la dominación mundial y forzar la adopción de su código, a costa de subvertir la civilización humana.
Algunos científicos creen que la investigación sobre problemas existentes, ya específicos y numerosos, debería tener prioridad sobre los trabajos que implican catástrofes hipotéticas futuras. «Creo que los problemas que tenemos hoy son mucho mayores», afirma Cynthia Rudin, científica informática e investigadora de IA en la Universidad de Duke. Este argumento se ve reforzado por el hecho de que la IA todavía no ha causado directamente ningún desastre a gran escala, aunque en Según algunos ejemplos discutibles, no es necesario que la tecnología alcance niveles futuros de capacidad para ser peligrosa. Por ejemplo, un informe publicado en septiembre pasado por el grupo de derechos humanos sin fines de lucro Amnistía Internacional afirmó que los algoritmos desarrollados por Meta, la empresa matriz de Facebook, habían «causado graves impactos en los derechos humanos» de los rohingya, la minoría musulmana de Myanmar, al amplificar: incitar a la violencia. Meta respondió a la solicitud de comentarios de Noticias-Hoy, señalando una declaración anterior a la revista Time de Rafael Frankel, director de políticas públicas de Asia Pacífico de Meta, reconociendo que el ejército birmano cometió crímenes contra los rohingya, y dijo que Meta está participando actualmente en una investigación intergubernamental. liderado por las Naciones Unidas y otras organizaciones.
Evitar que los futuros sistemas de inteligencia artificial potentes desencadenen una catástrofe global ya es una gran preocupación, afirman otros investigadores. «Para mí, este es el problema número uno que debemos resolver», afirma Jan Leike, investigador de inteligencia artificial en OpenAI. Aunque hasta ahora estos peligros han sido totalmente especulativos, sin duda están impulsando a un número creciente de investigadores a investigar diversas estrategias de reducción de daños.
Stuart Russell, científico de inteligencia artificial de la Universidad de California en Berkeley, fue pionero en un enfoque llamado «ajuste de valores», en el que los investigadores buscan formas de entrenar sistemas de inteligencia artificial para que aprendan los valores humanos y actúen de acuerdo con esos valores. Una de las ventajas de este enfoque es que puede desarrollarse ahora y aplicarse a sistemas futuros antes de que corran un peligro catastrófico. Los críticos dicen que la alineación de valores se centra demasiado en los valores humanos cuando existen muchos otros requisitos para la seguridad de la IA. Por ejemplo, al igual que los humanos, una base de conocimiento fáctico verificado es fundamental para que los sistemas de IA tomen decisiones correctas. «El problema no es que la IA tenga valores falsos», afirmó Oren Etzioni, investigador del Instituto Allen de Inteligencia Artificial. «La verdad es que nuestras elecciones reales están en función de nuestros valores y nuestro conocimiento». Teniendo en cuenta estas críticas, otros investigadores están trabajando para desarrollar una teoría más general de la coordinación de la IA diseñada para garantizar la seguridad de los sistemas futuros, mientras No centrado estrictamente en los valores humanos.
Algunos científicos están adoptando lo que consideran un enfoque más práctico y realista para el ajuste de la IA. Consideremos los avances recientes en la tecnología de generación de texto: ejemplos destacados como Chinchilla de DeepMind, PaLM de Google Research, OPT de Meta AI y ChatGPT de OpenAI tienen el potencial de generar contenido racialmente sesgado, ilegal o engañoso; todas estas empresas admiten que esto es un desafío. Algunas de estas empresas, incluidas OpenAI y DeepMind, creen que estos problemas se deben a inconsistencias. Ahora están trabajando para mejorar la alineación de la IA generadora de texto y esperan que esto proporcione información para alinear los sistemas futuros.
Los investigadores reconocen que todavía falta una teoría general sobre la alineación de la IA. «Realmente no tenemos una respuesta sobre cómo ajustar un sistema que es mucho más inteligente que los humanos», dijo Lake. Pero ya sea que los peores problemas de la IA hayan sido pasados, presentes o futuros, al menos el mayor obstáculo para resolverlos ya no es la falta de intentos.