¿Quién es responsable de matar a la inteligencia artificial?

¿Quién es responsable del daño de la inteligencia artificial? Es posible que pronto un jurado de California tenga que decidir. En diciembre de 2022, el conductor de un Tesla equipado con un sistema de navegación con IA mató a dos personas en un accidente. Los conductores enfrentan hasta 12 años de prisión. Varias agencias federales están investigando el accidente de Tesla, y el Departamento de Justicia de EE. UU. abrió una investigación criminal sobre cómo Tesla comercializó su sistema de piloto automático. El Departamento de Vehículos Motorizados de California está investigando el uso de funciones de conducción guiadas por IA.
Nuestros sistemas de responsabilidad actuales, para determinar la responsabilidad y la compensación por daños, no están preparados para la IA. Las reglas de responsabilidad están diseñadas para un momento en que los humanos están causando el mayor daño. Pero con la IA, los errores pueden ocurrir sin intervención humana directa. Los regímenes de responsabilidad deben ajustarse en consecuencia. Las políticas de responsabilidad deficientes no solo sofocarán la innovación de la IA. También daña a los pacientes y consumidores.
Ahora es el momento de considerar la responsabilidad: la IA se está volviendo omnipresente, pero aún no está regulada. Los sistemas basados en IA ya están causando daño. En 2022, un algoritmo de inteligencia artificial identificó erróneamente a un sospechoso en un ataque grave, lo que provocó un arresto falso. En 2022, en el apogeo de la pandemia de COVID, un chatbot de salud mental basado en IA alentó a un paciente suicida simulado a quitarse la vida.
Obtener la situación de responsabilidad correcta es fundamental para desbloquear el potencial de la IA. Las reglas inciertas y la perspectiva de litigios costosos obstaculizarán la inversión, el desarrollo y la adopción de IA en industrias que van desde la atención médica hasta los automóviles autónomos.
Actualmente, las investigaciones de responsabilidad generalmente comienzan y terminan con las personas que usan los algoritmos. Por supuesto, si alguien hace un mal uso de un sistema de IA o ignora sus advertencias, esa persona es responsable. Pero los errores de IA generalmente no son culpa del usuario. ¿Quién puede culpar a un algoritmo de inteligencia artificial para los médicos de la sala de emergencias por no detectar el papiledema, una inflamación de una parte de la retina? La falla de AI para detectar esto podría retrasar la atención y potencialmente cegar al paciente. Sin embargo, el papiledema puede ser difícil de diagnosticar sin un examen por parte de un oftalmólogo.
La IA está constantemente aprendiendo por sí misma, lo que significa que necesita información y busca patrones en ella. Es una «caja negra», por lo que es difícil saber qué variables contribuyen a su salida. Esto complica aún más el tema de la responsabilidad. ¿Cuánto se puede culpar a los médicos por los errores cometidos por una IA inexplicable? Poner toda la responsabilidad en los ingenieros de IA no resolverá el problema. Por supuesto, los ingenieros crean algoritmos problemáticos. Pero, ¿podrían haberse evitado todos los accidentes del Autopilot de Tesla haciendo más pruebas antes del lanzamiento del producto?
La clave es garantizar que todas las partes interesadas (usuarios, desarrolladores y todos los demás en la cadena) asuman la responsabilidad suficiente para garantizar la seguridad y la eficacia de la IA, aunque no la abandonarán. Para proteger a las personas de la IA defectuosa mientras fomentamos la innovación, proponemos tres formas de mejorar los marcos de responsabilidad tradicionales.
Primero, las aseguradoras deben proteger a los asegurados de los costos de ser demandados por lesiones de IA probando y validando nuevos algoritmos de IA antes de su uso. Las compañías de seguros de automóviles también han estado comparando y probando automóviles durante años. Un sistema de seguridad independiente puede proporcionar a las partes interesadas de la IA un sistema predecible de responsabilidad para adaptarse a las nuevas tecnologías y enfoques.
En segundo lugar, algunos errores de IA deben litigarse en tribunales con experiencia en esos casos. Estos tribunales pueden centrarse en tecnologías o problemas específicos, como tratar con la interacción de dos sistemas de IA (por ejemplo, dos autos sin conductor que chocan entre sí). Tales tribunales no son nuevos: en los Estados Unidos, estos tribunales han estado adjudicando reclamos por lesiones por vacunas durante décadas.
En tercer lugar, las normas reglamentarias de agencias federales como la Administración de Alimentos y Medicamentos o la Administración Nacional de Seguridad del Tráfico en las Carreteras pueden compensar el exceso de responsabilidad de los desarrolladores y usuarios. Por ejemplo, las regulaciones y leyes federales han reemplazado ciertas formas de responsabilidad por dispositivos médicos. Los reguladores deben centrarse activamente en los procesos estándar para el desarrollo de IA. Al hacerlo, pueden decidir que ciertas IA son demasiado riesgosas para llevar al mercado sin ser probadas, reexaminadas o validadas. Esto permitirá a las agencias permanecer ágiles y evitar daños relacionados con la IA sin la responsabilidad adicional de los desarrolladores de IA.
Las industrias, desde las finanzas hasta la ciberseguridad, están en la cúspide de una revolución de inteligencia artificial que podría beneficiar a miles de millones de personas en todo el mundo. Pero estos beneficios no deben verse disminuidos por algoritmos imperfectos: la IA del siglo XXI necesita un sistema de responsabilidad del siglo XXI.








