Inteligencia artificial

La tecnología de reconocimiento facial de la policía no puede distinguir a las personas negras

Imagina que estás esposado frente a tus vecinos y familiares por robar un reloj. Después de unas horas en la cárcel, se entera de que el software de reconocimiento facial utilizado por la policía estatal en las imágenes de la tienda lo identificó como ladrón. Pero no robaste nada; el software señaló a la policía a la persona equivocada.

Desafortunadamente, esto no es una suposición. Hace tres años, esto le sucedió a Robert Williams, un padre negro en los suburbios de Detroit. Lamentablemente, la historia de Williams no fue única. En un caso reciente de identidad equivocada, la tecnología de reconocimiento facial condujo al arresto injustificado de un hombre negro de Georgia en Luisiana por robo de cartera.

Nuestra investigación respalda las preocupaciones de que la tecnología de reconocimiento facial (FRT) puede exacerbar las desigualdades raciales en la vigilancia. Descubrimos que las agencias de aplicación de la ley que utilizan el reconocimiento facial automatizado arrestan de manera desproporcionada a las personas negras. Creemos que esto se debe a factores como la falta de rostros negros en los conjuntos de datos de entrenamiento para los algoritmos, la creencia de que estos programas son infalibles y los sesgos de los propios funcionarios que tienden a amplificar estos problemas.

Si bien ninguna cantidad de mejora puede eliminar la posibilidad de perfiles raciales, entendemos el valor de automatizar el proceso manual de comparación de rostros que consume mucho tiempo. También reconocemos el potencial de la tecnología para mejorar la seguridad pública. Sin embargo, dado el daño potencial de esta tecnología, se necesitan salvaguardas exigibles para evitar extralimitaciones inconstitucionales.

FRT es una tecnología impulsada por inteligencia artificial que intenta identificar a una persona a partir de una imagen. Los algoritmos utilizados por las fuerzas del orden a menudo son desarrollados por empresas como Amazon, Clearview AI y Microsoft, que crean sistemas para diferentes entornos. A pesar de los grandes avances en la tecnología de aprendizaje profundo, las pruebas federales han demostrado que la mayoría de los algoritmos de reconocimiento facial funcionan mal para identificar a personas que no sean blancas.

Los defensores de los derechos civiles han advertido que la tecnología tiene problemas para distinguir caras oscuras, lo que podría conducir a más perfiles raciales y más arrestos falsos. Además, la identificación inexacta aumenta la probabilidad de perder la captura.

Algunos líderes gubernamentales, incluida la alcaldesa de Nueva Orleans, LaToya Cantrell, todavía promocionan la tecnología como una ayuda para resolver el crimen. Con una creciente escasez de personal policial en todo el país, algunos ven a FRT como un extensor de alcance policial muy necesario que podría ayudar a las agencias a hacer más con menos. Ese sentimiento puede explicar por qué más de una cuarta parte de las fuerzas policiales locales y estatales y casi la mitad de las agencias policiales federales acceden rutinariamente a los sistemas de reconocimiento facial a pesar de sus fallas.

LEER
La inteligencia artificial puede predecir la insuficiencia renal con días de antelación

Esta adopción generalizada plantea una grave amenaza a nuestro derecho constitucional a oponernos a registros e incautaciones ilegales.

Reconociendo la amenaza a nuestras libertades civiles, ciudades como San Francisco y Boston han prohibido o restringido el uso de esta tecnología por parte del gobierno. A nivel federal, la administración del presidente Biden publicó un «Plan para una Declaración de derechos de IA» en 2022. Si bien está diseñado para incorporar prácticas que protegen nuestros derechos civiles en el diseño y uso de tecnologías de IA, los principios del modelo no son vinculantes. Además, los demócratas del Congreso reintrodujeron la Ley de moratoria biométrica y de reconocimiento facial a principios de este año. El proyecto de ley suspendería el uso de FRT por parte de las fuerzas del orden hasta que los legisladores puedan desarrollar regulaciones y estándares que equilibren las preocupaciones constitucionales y la seguridad pública.

La propuesta de declaración de derechos y moratoria de AI es un primer paso necesario para proteger a los ciudadanos de AI y FRT. Sin embargo, ninguno de estos esfuerzos fue suficiente. El plan no cubre el uso de inteligencia artificial por parte de las fuerzas del orden, y la moratoria solo restringe el uso del reconocimiento facial automatizado por parte de las autoridades federales, no de los gobiernos locales y estatales.

Sin embargo, a medida que aumenta el debate sobre el papel del reconocimiento facial en la seguridad pública, nuestra investigación y la de otros sugieren que, incluso con un software libre de errores, la tecnología podría conducir a una aplicación de la ley injusta a menos que también se creen salvaguardas para uso no federal.

Primero, la concentración de recursos policiales en muchos barrios negros ha llevado a un contacto excesivo entre los residentes negros y la policía. En este contexto, las comunidades atendidas por la policía asistida por FRT son más vulnerables a las disparidades en la aplicación de la ley, ya que la credibilidad de la toma de decisiones asistida por algoritmos se ve comprometida por las demandas y las limitaciones de tiempo del trabajo policial, junto con una fe casi ciega en inteligencia artificial, Minimiza la discrecionalidad del usuario en la toma de decisiones.

La policía generalmente usa la tecnología de tres maneras: consultas en el sitio para identificar a las personas que han sido detenidas o arrestadas, buscando imágenes de video o escaneando a las personas más allá de las cámaras de vigilancia en tiempo real. La policía carga una imagen y, en cuestión de segundos, el software compara esa imagen con una gran cantidad de fotos para generar una lista de posibles sospechosos.

Las decisiones de ejecución recaen en última instancia en los funcionarios. Sin embargo, la gente suele creer que la IA es infalible y no cuestiona los resultados. Lo mejor de todo es que es mucho más fácil hacer comparaciones con herramientas automatizadas que a simple vista.

Las ayudas para el cumplimiento de la ley impulsadas por IA también distancian psicológicamente a los agentes de policía de los ciudadanos. Esta eliminación del proceso de toma de decisiones permite a los funcionarios separarse de sus acciones. Los usuarios a veces también siguen selectivamente la guía generada por computadora, favoreciendo las recomendaciones que se ajustan a los estereotipos, incluso sobre delitos cometidos por personas negras.

No hay evidencia concluyente de que FRT mejore el control del crimen. Aún así, los funcionarios parecen dispuestos a tolerar estos prejuicios raciales mientras la ciudad lucha por frenar el crimen. Esto deja los derechos de las personas vulnerables a las violaciones.

Atrás quedaron los días de aceptación ciega de esta tecnología. Las empresas de software y las fuerzas del orden público deben tomar medidas inmediatas para reducir los daños de esta tecnología.

Para la empresa, la creación de un software de reconocimiento facial confiable comienza con una representación equilibrada entre los diseñadores. En los EE. UU., la mayoría de los desarrolladores de software son blancos. Los estudios han demostrado que el software es mucho mejor para identificar a los miembros de la raza de un programador. Los expertos atribuyen los hallazgos en gran parte a que los ingenieros pasaron inconscientemente «nuestro propio sesgo racial» al algoritmo.

Cuando los diseñadores se enfocan inconscientemente en sus rasgos faciales familiares, sus propios prejuicios raciales se filtran. Los algoritmos resultantes se probaron principalmente en personas de su etnia. Muchos algoritmos fabricados en Estados Unidos «aprenden» mirando más caras blancas, lo que no les ayuda a reconocer a personas de otras razas.

El uso de diferentes conjuntos de entrenamiento ayuda a reducir el sesgo en el rendimiento de FRT. El algoritmo aprende a comparar imágenes entrenándose con un conjunto de fotos. Una sobrerrepresentación de hombres blancos en las imágenes de entrenamiento sesgaría el algoritmo porque las personas negras están sobrerrepresentadas en las bases de datos de fichas policiales y otros repositorios de imágenes comúnmente utilizados por las fuerzas del orden. Por lo tanto, es más probable que la IA marque los rostros negros como delincuentes, lo que lleva a la selección y el arresto de personas negras inocentes.

Creemos que las empresas que fabrican estos productos deben considerar la diversidad en su fuerza laboral e imagen. Sin embargo, esto no exime de responsabilidad a las fuerzas del orden. Las fuerzas policiales deben analizar críticamente sus métodos si queremos evitar que esta tecnología exacerbe las disparidades raciales y provoque violaciones de derechos.

Para los líderes policiales, se debe aplicar un puntaje de similitud mínimo uniforme al momento del emparejamiento. Después de que el software de reconocimiento facial genera una lista de posibles sospechosos, clasifica a los candidatos en función de cuán similares creen los algoritmos que son las imágenes. Actualmente, los departamentos determinan regularmente sus propios criterios de puntuación de similitud, que algunos expertos creen que aumenta la probabilidad de arrestos falsos y arrestos perdidos.

La adopción de FRT por parte de las fuerzas del orden es inevitable y vemos el valor en ello. Pero si ya existen disparidades raciales en los resultados de la aplicación de la ley, la tecnología podría exacerbar las desigualdades, como las que se ven en las detenciones y arrestos de tráfico, sin una regulación y transparencia adecuadas.

Fundamentalmente, la policía necesita más capacitación sobre las trampas de FRT, el sesgo humano y la discriminación histórica. Además de instruir a los oficiales que usan la tecnología, los oficiales y los fiscales deben revelar que usan el reconocimiento facial automatizado cuando solicitan órdenes judiciales.

Si bien FRT no es infalible, seguir estas pautas ayudará a evitar usos que conduzcan a arrestos no deseados.

Este es un artículo de opinión y análisis, y las opiniones expresadas por el autor no representan necesariamente las de Noticias-Hoy.

LEER
El científico informático que entrena a la IA para pensar con analogías

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba