¿Podría la AI predecir quiénes son criminales?

Investigaciones recientes afirman que la Inteligencia Artificial podría identificar a los criminales gracias a un software de reconocimiento facial. Sin embargo, el estudio ha desatado controversias en relación con sus prejuicios raciales. Metro investiga el tema

Por Daniel Casillas

"Un modelo de red neuronal profunda para predecir la criminalidad usando procesamiento de imágenes", una reciente investigación realizada por profesores y estudiantes de doctorado en la Universidad de Harrisburg, EE.UU., recuerda involuntariamente a la película de Steven Spielberg ‘Minority Report’, de 2002. Ese film narra sobre un departamento de policía especializado que detenía a los criminales basándose en la pre-conciencia proporcionada por los psíquicos. Un grupo de científicos dijo haber creado una tecnología similar que utiliza un software de reconocimiento facial automatizado capaz de predecir si alguien va a violar la ley.

"Con una precisión del 80% y sin prejuicios raciales, el software puede predecir si alguien es un criminal basándose únicamente en una imagen de su rostro", afirma la investigación.

La tecnología parece prometedora, pero ya ha suscitado controversias entre los expertos en inteligencia artificial e incluso entre los especialistas en derecho. Más de 450 expertos interdisciplinarios del MIT, la Universidad de Nueva York, McGill, Harvard, Google, Microsoft y otros más firmaron y promovieron una carta para detener la publicación de la investigación, considerando que la tecnología allí mencionada es racista, discriminatoria y podría amplificar la discriminación policial.

"Sencillamente no hay manera de desarrollar un sistema que pueda predecir la 'criminalidad' sin sesgo racial porque los datos de la justicia penal son inherentemente racistas", explicó Audrey Beard, una de las creadoras de esa carta.

Tras un minucioso proceso de revisión, el artículo fue rechazado por la editorial académica alemana-estadounidense Springer Nature y no será compartido. Incluso la Universidad de Harrisburg borró de su sitio web el comunicado de prensa que anunciaba la investigación, afirmando que "la facultad está actualizando el artículo para responder a las preocupaciones".

Sin embargo, la policía predictiva -el uso de técnicas matemáticas y otras técnicas analíticas en la aplicación de la ley para identificar posibles actividades delictivas- no es nueva e incluso se ha utilizado en algunas regiones de los Estados Unidos, aunque con resultados negativos.

Andrew Guthrie Ferguson, profesor de la Facultad de Derecho de la American University Washington y autor del libro ‘The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement', dijo a Metro que en ese país hay dos formas principales de predicción policial: las basadas en el lugar y las basadas en la persona.

"En muchos sentidos, creo que estamos al final de la primera era de la policía predictiva en los Estados Unidos. Hemos intentado una serie de experimentos, la mayoría de los cuales fracasaron, lo que llevó a que las principales jurisdicciones se alejaran de la tecnología", dijo.

Dado que los sistemas de predicción no funcionaron, están aumentando otras formas más tecnológicas de vigilancia de grandes datos, como los nuevos sistemas de cámaras de vídeo, los lectores de matrículas automatizados, la Internet de las cosas y otros dispositivos inteligentes que ofrecen nuevas formas a la policía para investigar los delitos.

Sin embargo, Ferguson advirtió que el creciente uso de estas tecnologías traerá consigo nuevas preocupaciones sobre la privacidad y los prejuicios raciales.

"La próxima era de la policía de grandes datos traerá nuevas luchas sobre la privacidad, los prejuicios raciales y el papel de la policía en la mejora de la seguridad pública", concluyó.

 

El primer arresto erróneo hecho con la AI

Robert Williams Robert Williams, detenido por tecnología AI

El primer arresto conocido usando reconocimiento facial de Inteligencia Artificial ocurrió a principios de este año. La policía de Detroit arrestó a Robert Williams, un afroamericano que vive en un suburbio de Detroit, frente a su esposa y dos hijas y lo mantuvo encerrado por casi 30 horas. Eso sucedió cuando el software de reconocimiento facial de la policía estatal de Michigan le dijo a la policía que Robert Williams era el ladrón de relojes que estaban buscando.

El problema era que la tecnología no puede distinguir entre los afroamericanos. Eso incluía a Robert Williams, cuya única cosa en común con el sospechoso capturado por las cámaras de vigilancia de la tienda de relojes era el mismo color de piel.

Según la Unión Americana de Libertades Civiles (ACLU), después de varias horas la policía admitió que había cometido un error y liberó a Robert. "La computadora debe haberse equivocado", dijo uno de los policías.

"¿Cómo se explica a dos niñas que una computadora se equivocó, pero la policía la escuchó de todos modos?" Robert dijo a ACLU.

ENTREVISTA

Andrew Guthrie Ferguson Andrew Guthrie Ferguson

Andrew Guthrie Ferguson
profesor de la Facultad de Derecho de la Universidad Americana en Washington y autor del libro ‘The Rise of Big Data Policing: Vigilancia, Raza y el Futuro de la Aplicación de la Ley'.

P: ¿Qué es la policía predictiva y cómo funciona en los Estados Unidos?
– En los Estados Unidos hay dos formas principales de policía predictiva. La policía predictiva basada en el lugar utiliza los datos de los delitos pasados para predecir las zonas geográficas de mayor riesgo en el futuro y envía a la policía a la zona del delito predicho. En su apogeo, más de 60 jurisdicciones utilizaron la policía predictiva basada en lugares. La labor policial predictiva basada en lugares es esencialmente la labor policial tradicional de los puntos de acceso, en la que se utiliza el aprendizaje automático para predecir el próximo punto de acceso. El éxito de esta tecnología no es concluyente, pero algunas ciudades han descubierto que los datos pueden configurar las pautas de patrulla de manera más eficiente.
El segundo tipo es la policía predictiva basada en la persona, que utiliza una serie de factores de riesgo para identificar a las personas que podrían estar involucradas en futuros actos de violencia. Durante un tiempo, las grandes ciudades como Los Ángeles y Chicago utilizaron las predicciones basadas en la persona para identificar a las personas de alto riesgo. La policía utilizaba la información para ponerse en contacto con las personas seleccionadas como medida de vigilancia y control social. Desde entonces, ambas ciudades han reconocido que los sistemas de predicción basados en la persona que utilizaban tenían un diseño defectuoso (basado en datos sobre arrestos, datos sobre bandas y datos sobre estupefacientes que revelan más sobre las pautas policiales que sobre las personas) y estaban sesgados desde el punto de vista racial. Ambas ciudades han cerrado sus sistemas policiales de predicción basados en la persona después de auditorías completas.

P: Una investigación reciente afirma que es posible predecir a los criminales usando la AI.
– La idea de que una fotografía puede predecir la criminalidad es una tontería científica. Tal sistema nunca se usaría en los Estados Unidos para los arrestos, y con suerte ni siquiera se usaría para la investigación académica. Plantea tantas cuestiones de diseño algorítmico, ética y pruebas, que es preocupante que el proyecto haya sido incluso perseguido. La tecnología no se utilizará en los Estados Unidos porque sería inconstitucional arrestar a alguien por su apariencia sin causa probable de un delito. Ninguna ley puede cambiar esa premisa fundamental.

P: Varias organizaciones declararon que la tecnología de predicción de delitos es racista.
– Las tecnologías de predicción sólo son buenas en la medida en que los datos en torno a los cuales se construyen y el contexto social en el que funcionan. Si los datos están impregnados de prejuicios raciales, entonces los resultados de las predicciones también estarán sesgados. Si una sociedad tiene un sesgo racial, entonces los datos de esa sociedad estarán contaminados por el sesgo racial. Lamentablemente, en muchas ciudades estadounidenses la policía se dirige a las comunidades pobres de color de manera desigual, lo que conduce a mayores arrestos, contactos y condenas y, por lo tanto, a un conjunto de datos que afecta desproporcionadamente a los afroamericanos. Si esos datos sesgados se convierten en los pilares de un sistema policial predictivo, las predicciones simplemente cosificarán el sesgo en la sociedad. En esencia, sólo se estaría prediciendo las pautas de actuación de la policía, no los delitos subyacentes, y viendo una sociedad con sesgo racial reflejada en los datos.
Algunos sistemas de predicción policial reconocen este problema y han diseñado sus aportaciones para evitar que se limiten a reproducir los arrestos policiales. Por ejemplo, si como algunos de los sistemas policiales de predicción sólo se rastrean las llamadas de servicio de los delitos contra la propiedad (por ejemplo, me robaron el coche, me robaron la casa) la información rastrea el delito y no la sospecha policial. Esos sistemas deberían evitar algunas de las críticas de que todos los datos sobre los delitos están sesgados porque se basan en la victimización y no en los informes de los agentes de policía. Pero todo depende de cómo se establezcan los sistemas en primer lugar. El diseño frontal es la clave para minimizar los obvios sesgos raciales, pero hasta que acabemos con el racismo estructural, los sesgos sistémicos seguirán existiendo.

NEWSLETTER

Lo Último de en tu correo...

Contenido Patrocinado
Loading...
Revisa el siguiente artículo