¿Cómo podemos confiar en la inteligencia artificial?
Los principales expertos en el campo de la inteligencia artificial (IA), e incluso algunos que han jugado un papel importante en su desarrollo, ahora están haciendo sonar la alarma sobre el daño potencial que la inteligencia artificial podría causar a la humanidad.
Eso ha llevado a los gobiernos a pedir a la comunidad tecnológica que comience a incorporar salvaguardas en sus modelos para evitar que se comporten mal o se utilicen con fines nefastos.
Esencialmente, nuestra expectativa es que haya algún tipo de código o algoritmo que haga que un modelo de IA sea confiable. ¿Pero es posible? Incluso si se puede confiar numéricamente en un modelo, ¿cómo nos aseguramos de que las personas no traicionen esa confianza, ya sea intencionalmente o no?
confía en lo que sabes
Uno de los elementos clave de la confianza es la comprensión. Las personas confían entre sí porque adquieren cierta comprensión de cómo piensan los demás, sus motivaciones y sus reacciones ante situaciones pasadas.
En realidad, el mismo enfoque es más fácil para la IA porque, a pesar de su complejidad, hay formas de monitorear y analizar su comportamiento a un alto nivel granular.
Actualmente, la industria de la tecnología ha desarrollado un taburete de tres patas para el gobierno de la IA llamado TRiSM: gestión de la confianza, el riesgo y la seguridad. Según Gartner, las organizaciones que adopten TRiSM como elemento operativo verán una mejora del 50 por ciento en la adopción de IA, el logro de los objetivos comerciales y la experiencia general del usuario.
La IA confiable representará el 20 por ciento de la fuerza laboral global y generará alrededor del 40 por ciento de la productividad económica para 2028.
Sin embargo, según Avivah Litan, vicepresidente analista distinguido de Gartner, la clave de este éxito es implementar un marco como TRiSM antes, y no después, de implementar el modelo en producción.
No espere hasta que el modelo esté en producción para aplicar AI TRiSM. Simplemente expone el proceso a un riesgo potencial. Los líderes de TI deben familiarizarse con las formas de compromiso y usar el conjunto de soluciones AI TRiSM para que puedan asegurar adecuadamente la IA.
De hecho, dado que la implementación efectiva requiere una colaboración entre funciones, no hacerlo puede crear un mayor riesgo para los procesos inteligentes. Los diferentes equipos, como análisis, seguridad, legal y línea de negocios, deben estar todos en la misma página, lo cual es más fácil de hacer con anticipación que después de que se hayan establecido las dependencias y los requisitos limitados.
Afortunadamente, hay muchas formas de hacer que la IA sea más confiable.
Los profesores de Caltech, Yisong Yue y Anima Anandkumar, destacan algunas de las mejores prácticas para garantizar que los modelos funcionen según lo previsto, comenzando con un escrutinio riguroso de los datos utilizados para entrenarlos. Para que la IA tenga alguna posibilidad de devolver los resultados correctos, necesita instrucciones claras desde el principio.
Inteligencia transparente
En un nivel más fundamental, existe una falta de transparencia en el funcionamiento interno de la mayoría de los modelos de IA. Incluso los expertos a menudo tienen que profundizar en el código para descubrir cómo se comporta un algoritmo en particular.
En muchos casos, los resultados imprevistos surgen de patrones de datos que los humanos no pueden percibir, lo que genera un comportamiento impredecible y socava la confianza en que los modelos funcionarán según lo previsto en el futuro.
Para complicar aún más las cosas, existen muchos tipos de confianza. Según Ramón Alvarado, profesor asistente de filosofía en la Universidad de Oregón, la única confianza que se le debe dar a la IA es la confianza cognitiva, es decir, solo confiamos en ella para ampliar nuestra capacidad de entender las cosas.
Esto es muy diferente de la confianza que depositamos en entornos complejos como máquinas típicas o incluso sistemas médicos. En parte, esto se debe a nuestras expectativas relativamente limitadas de la mayoría de las cosas y la forma estática en que funcionan. Se supone que los profesionales de la salud deben ponernos de nuevo en forma, no pavimentar nuestro camino de entrada, y viceversa.
AI ofrece una relación más abierta con los humanos porque es capaz de hacer casi cualquier cosa de la manera que le convenga. Por esta razón, cualquier intento de confianza que no sea cognitiva (por ejemplo, cognitiva, intelectual y psicológica) solo conducirá a una confusión conceptual.
¿Cómo puede la inteligencia artificial ganarse la confianza?
En última instancia, ya sea inteligencia artificial o inteligencia biológica, se debe ganar la confianza. Como el autor Gary Marcus explicó recientemente a The Economist, solo si demuestra que es digno de sus objetivos limitados, se puede confiar en que la IA asuma mayores responsabilidades.
Esto requiere no solo una buena ingeniería desde el principio, sino también un monitoreo y una optimización continuos para garantizar que un modelo dado no pierda el control a medida que su entorno de datos y posiblemente las tareas operativas cambien con el tiempo.
Esto pone efectivamente a la IA en pie de igualdad con los humanos, cuyos procesos de pensamiento internos son tan misteriosos e incognoscibles como lo son las redes neuronales en la actualidad. Así como no contrataría a un graduado universitario reciente para que sea su nuevo director financiero, tampoco debe hacer que AI sea responsable de la huella financiera total de su empresa.
Solo se puede confiar en AI para asumir la responsabilidad de misión crítica después de un largo período de servicios legales calificados. Aun así, una organización bien administrada tendrá controles y equilibrios para garantizar que no importa quién (o más bien qué) esté dirigiendo las cosas, las cosas no salgan mal. Estas precauciones podrían implicar que las IA rastreen a otras IA de la misma manera que los humanos rastrean las actividades de sus colegas.
la línea de fondo
Quizás el desafío fundamental de construir una inteligencia artificial en la que podamos confiar es el hecho de que, por primera vez, nos enfrentamos a un mundo de inteligencia digital compartido e interconectado distinto del nuestro.
No solo es capaz de absorber información de su entorno, sino que pronto desarrollará una marcada habilidad para tomar sus propias decisiones, desarrollar sus propias ideas y tomar las medidas que considere apropiadas, a veces por sus propios motivos, no los nuestros.
Esto representa un cambio radical en el orden natural que tendrá consecuencias indescriptibles para la psique humana.
Quizás, entonces, el verdadero desafío para la humanidad no sea si debemos confiar en la IA, sino si podemos confiar en nosotros mismos ahora que ya no somos las criaturas más inteligentes de la tierra.