4 principios de los sistemas de IA responsables
A medida que la IA se vuelve omnipresente, los sistemas de IA deben ser más transparentes sobre cómo toman decisiones. Sin embargo, la tarea de respaldar la IA explicable no es fácil sin un marco de gobernanza estándar. (Lea también: ¿Por qué es importante la IA explicable?)
Recientemente, Techopedia reunió a los siguientes líderes para discutir cómo y por qué las organizaciones están adoptando la IA responsable como marco de gobierno:
El panel de discusión generó algunos puntos de conversación importantes que puede utilizar para iniciar debates sobre la gobernanza de la IA en su organización. Incluyen ideas para:
- Las partes interesadas no deben considerar que la IA responsable y la IA ética sean sinónimos.
- Los sistemas de IA responsables deben desarrollarse en torno a marcos estandarizados.
- Las partes interesadas no deben esperar que el mismo marco de IA responsable satisfaga las necesidades de múltiples industrias.
- Las organizaciones deberán equilibrar las prioridades contrapuestas en apoyo de las políticas de gobierno corporativo y los principios de IA responsable.
Aquí hay una discusión más profunda de cada punto de conversación:
1. Definición del alcance de la IA responsable y ética
Un problema que surgió durante un seminario web reciente de Techopedia fue que los conceptos de IA responsable e IA ética a menudo se consideran lo mismo. Esto es incorrecto y crea malentendidos cuando los interesados en el proyecto ven estos dos términos como sinónimos.
Entonces, ¿cuál es la diferencia?
Según nuestros panelistas, la IA ética se centra en valores deseables, como producir resultados justos y reconocer el derecho humano a mantener privada la información de identificación personal (PII).
La IA responsable, por el contrario, se centra en las medidas técnicas y organizativas que permiten a las organizaciones alcanzar estos objetivos a los que se aspira. La suma de estos dos sistemas también se puede llamar inteligencia artificial confiable.
2. Espere un equilibrio entre la IA responsable y las políticas de gobierno corporativo establecidas
A continuación, nuestros expertos hablaron sobre cómo las organizaciones deben equilibrar los intereses de los accionistas de la empresa, los clientes, las comunidades, los financistas, los proveedores, los gobiernos y la gerencia. Esto puede dificultar la integración y ejecución de sistemas de IA responsables, ya que una amplia combinación de partes interesadas puede tener prioridades contrapuestas.
Es por eso que las organizaciones deben alinear los principios de IA responsable con sus políticas de gobierno corporativo para proporcionar lo siguiente:
- Alinear los sistemas de IA con los valores de la organización.
- Estrategias de resolución de conflictos cuando las prioridades de las partes interesadas compiten.
- Claridad y transparencia en el proceso de toma de decisiones de los modelos de IA.
- Responsabilidad por las decisiones del modelo de IA.
Los sistemas de IA responsables deben estar equipados para manejar conflictos de intereses entre accionistas y clientes. El incidente de Volkswagen discutido por nuestros expertos es un estudio de caso esclarecedor: cuando el liderazgo de la empresa quiere recompensar a los accionistas a expensas de los clientes, las cosas no salen bien.
Es importante que los sistemas de IA sean transparentes sobre los conflictos de intereses en las empresas y el gobierno. (Lea también: La IA explicable no es suficiente; necesitamos una IA comprensible.)
3. Debatir cuestiones éticas que afectan a los sistemas de IA
Los sistemas de IA, sin importar la industria, deben adaptarse a las diferentes partes interesadas, y cuando los sistemas de IA de caja misteriosa no los tienen en cuenta, la reputación de una organización y la percepción pública pueden verse afectadas negativamente.
Por ejemplo, los sistemas de inteligencia artificial utilizados para automatizar las aprobaciones de préstamos deben ser transparentes e inmunes a los sesgos demográficos o socioeconómicos. Muchas instituciones fintech utilizan inteligencia artificial para evaluar solicitudes de préstamos o hipotecas. Sin embargo, cuando un sistema de IA se entrena solo con datos históricos, puede rechazar a personas en ciertos grupos demográficos con puntajes crediticios históricamente bajos de Fair Isaac Corporation (FICO).
También se debe discutir el impacto ecológico y ambiental de los sistemas de IA. Algunos estudios sugieren que un solo sistema de IA capacitado puede emitir hasta 150 000 libras esterlinas de CO2. Al elegir un marco de gobierno para la IA responsable, las organizaciones deben equilibrar el desarrollo de la IA y su impacto en el medio ambiente.
Por último, ¡no te olvides de la seguridad! Las redes neuronales profundas empresariales generalmente se entrenan utilizando datos propietarios, así como grandes cantidades de datos recopilados de Internet. Los datos privados pueden ser una mina de oro para los piratas informáticos, por lo que es importante analizar cómo proteger sus sistemas de IA de actores malintencionados. (Lea también: Inteligencia artificial en ciberseguridad: el futuro de los hackers ya está aquí.)
4. Seguir marcos de trabajo de IA responsables y comprobados
Organizaciones como el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), la Comisión Europea (UE) y AI Partnership ya están desarrollando marcos para desarrollar y mantener sistemas de IA responsables. Estos marcos se basan en los siguientes principios:
- Parámetros objetivos y cuantificables: por ejemplo, un sistema de atención médica de IA debería poder diagnosticar con precisión la condición médica de un paciente y prescribir un plan de tratamiento personalizado, independientemente de los aspectos de facturación.
- Equidad: los sistemas de IA deben aplicar los mismos parámetros de evaluación, evaluación y juicio, independientemente del contexto o la persona. Por ejemplo, los sistemas de seguimiento de candidatos que utilizan inteligencia artificial para evaluar las solicitudes de empleo deben aplicar los mismos parámetros a todos los candidatos, independientemente de su raza, sexo o edad.
- Privacidad y seguridad: los sistemas de IA deben proteger estrictamente los datos confidenciales. Por ejemplo, los sistemas de inteligencia artificial para el cuidado de la salud deben proteger los datos de los pacientes para evitar que sean víctimas de fraude.
en conclusión
La importancia de una IA responsable es innegable, pero garantizar que todos los sistemas de IA sean transparentes y explicables no es una tarea fácil. Cuanto más complejo es el modelo de aprendizaje profundo, más difícil es entender cómo se toman las decisiones.
La necesidad de un marco de IA responsable es todavía una idea incipiente, pero está evolucionando rápidamente para abordar los problemas del mundo real. Nuestros expertos predicen que los marcos de IA que garantizan la confidencialidad, la equidad y la transparencia pronto serán omnipresentes en todas las industrias. (Lea también: Los expertos comparten las 5 principales predicciones de IA para 2023.)