Tecnología compleja frente a IA: ¿cuál es la diferencia?

A menudo, la inteligencia artificial (IA) se usa ampliamente para describir todo tipo de sistemas que parecen tomar decisiones que no entendemos del todo. Pero si bien muchos sistemas razonablemente complejos toman decisiones como esta, no los convierte en «inteligentes» de inmediato.
Por ejemplo, es posible que no entienda cómo mi termómetro de horno «inteligente» parece saber cuándo mi rosbif estará perfectamente cocido, o cómo la luz de mi jardín sabe cuándo encenderse, pero los ingenieros que arman el (no demasiado complejo) ecuación matemática hacer.
Hay muchos otros sistemas que, a primera vista, parecen inteligentes—pero solo están construidos por personas inteligentes. No deberíamos etiquetarlos como «inteligentes» porque eso sugiere que están tomando sus propias decisiones en lugar de simplemente seguir un camino diseñado por humanos.
Entonces, ¿qué cuenta realmente como inteligencia artificial?
Una mejor manera de distinguir los sistemas inteligentes (artificialmente) de aquellos que simplemente siguen reglas creadas por humanos es buscar a la persona que puede explicar el funcionamiento interno de los sistemas (es decir, la persona responsable en última instancia de lo que hacen los sistemas).
Si un sistema clásico falla, podemos volver a la placa y comprobar el funcionamiento mecánico o el código del programa. Podemos identificar la pieza mal diseñada o mal programada; y si esos procesos están bien gobernados, también podemos identificar el equipo responsable de esta parte del sistema. Ellos hizo escribir esas líneas de código avisándome para sacar el rosbif o prender las luces del jardín-pero para humanos; no para el gato de mi vecino.
Si un sistema no funciona en todos los casos (por ejemplo, diferentes cortes de carne o animales salvajes en otras partes del mundo), pueden optimizar aún más esas ecuaciones para que sean aplicables a esos casos previamente imprevistos.
¿Quién es responsable de la IA?
En otras palabras, ¿quién tiene la culpa cuando un robot toma un huevo y aplica demasiada presión?
Este es uno de los ejemplos clásicos en los que se ha entrenado un sistema de inteligencia artificial con muchos ejemplos de objetos y cómo recogerlos. El sistema ha aprendido alguna representación interna de qué hacer—tal vez usando una técnica de aprendizaje de IA prominente llamada aprendizaje de refuerzo, en la que el entrenador humano ha proporcionado comentarios sobre el resultado de esas actividades. (Lea también: Aprendizaje por refuerzo versus aprendizaje por refuerzo profundo: ¿cuál es la diferencia?)
En este caso, cuando el robot recoge un huevo y lo aplasta, sabemos que es posible que hayamos realizado un entrenamiento incorrecto (quizás solo haciendo que el robot recoja pelotas de tenis y de béisbol). Entonces, aquí, nosotros pueden culpar al humano que seleccionó el material de entrenamiento; pero entonces realmente estamos aplicando el sistema inteligente a algo de lo que no tiene ni idea.
Si no se cometió un error externo tan obvio, realmente no podemos depurar más el sistema y descubrir quién tiene la culpa. Al final, el sistema extrajo conocimiento de sus actividades de capacitación pasadas y aplicó este conocimiento a una nueva situación.
Esto es claramente análogo a los humanos que intentan explicar decisiones complejas por sí mismos: nunca obtendrá la explicación completa, razón por la cual los primeros sistemas de decisión que apuntaban a extraer todo el conocimiento de los expertos humanos y ponerlo en una forma basada en reglas fallaron tan miserablemente. Y ninguna de las técnicas explicables de IA tendrá éxito allí tampoco. Seguramente, para sistemas simples, podemos extraer una representación comprensible de lo aprendido—pero para sistemas verdaderamente interesantes que toman decisiones complejas, no podemos. (Lea también: ¿Por qué la IA explicable importa de todos modos?)
¿Cómo podemos predecir los resultados de la IA?
Todo lo que podemos aspirar, en realidad, son aproximaciones simples—que suelen ocultar los pequeños detalles interesantes—o jugar juegos de “qué pasaría si” como “¿Qué decidirías si este aspecto fuera diferente?” En estos casos, la IA es mejor que los humanos en un sentido: seguirá dando la misma respuesta. Los humanos tienden a cambiar sus decisiones con el tiempo.—o simplemente porque les preguntaste demasiadas veces.
Si el resultado de un sistema de IA no es el deseado—como si un robot tomara un huevo y lo aplastara—podemos culpar a los programadores del sistema de aprendizaje. Sin embargo, solo podemos culparlos si prometen que su sistema aprenderá a recoger huevos de pelotas de tenis y solo ejemplos de entrenamiento de béisbol.
En este ejemplo, es mucho más probable que los programadores aplicaran un procedimiento de entrenamiento más genérico que no fue diseñado específicamente para enseñarle al robot a recoger huevos. Entonces, la culpa es de quien eligió el método de entrenamiento y los ejemplos de entrenamiento.—no el diseñador del sistema subyacente en sí.
¿Es posible garantizar que un sistema de inteligencia artificial esté libre de sesgos?
Un robot que recoge un huevo y lo aplasta no es precisamente un problema grave—porque los ejemplos de entrenamiento mal elegidos saltan a la vista (¿y a quién no le gustan los huevos revueltos?). Sin embargo, se convierte en un problema cuando la conexión entre los ejemplos de entrenamiento y los problemas futuros con el sistema aprendido son menos evidentes.
Nuestro conjunto de entrenamiento anterior claramente ignora los huevos. Uno podría afirmar, entonces, que hemos entrenado un sistema sesgado que discrimina los huevos usando un ejemplo de entrenamiento que excluye los huevos. Y ahí es donde surgen problemas más tangibles: ¿Cómo me aseguro de que los datos de capacitación de mis clientes no estén directamente sesgados contra el género, el lugar de nacimiento, la edad y la educación?—o peor aún, indirectamente sesgado contra estas variables a través de algunas otras propiedades en los datos que permiten que mi sistema de aprendizaje infiera algunos de esos atributos discriminatorios? (Lea también: Imparcialidad en el aprendizaje automático: eliminación del sesgo de datos).
Garantizar que un sistema de IA esté libre de sesgos sigue siendo un área en curso de investigación muy activa; y este tipo de problema se puede ver ocurriendo en otras áreas de nuestra vida diaria. Las noticias recientes sobre vehículos autónomos que malinterpretan las situaciones de la calle entran en la misma categoría. Es imposible garantizar que los ejemplos de entrenamiento cubran todos los escenarios posibles para garantizar que el automóvil no tome la decisión equivocada en una situación rara e imprevista.
De hecho, es casi irónico que los sistemas de inteligencia artificial críticos para la seguridad a menudo estén protegidos por reglas clásicas derivadas de humanos para evitar decisiones catastróficas en casos límite.
Conclusión
Un sistema artificial inteligente saca conclusiones o extrae conocimiento de las observaciones y pone esa representación interna a trabajar para tomar nuevas decisiones. Y crucialmente, esa representación interna no fue creada por un ser humano—sino por el propio sistema.
Además, en los sistemas verdaderamente inteligentes, un ser humano solo participó indirectamente al diseñar el sistema que crea la representación interna en la que se basa el sistema de IA para tomar decisiones; y un humano solo ha influido indirectamente en esto al decidir qué sistema de aprendizaje y ejemplos de entrenamiento se usaron.








