Conclusiones clave
- Se informa que una empresa de software recopila información de las redes sociales para crear perfiles que se pueden usar para identificar a las personas que representan riesgos para la seguridad.
- Voyager Labs ha sellado un importante acuerdo con una agencia del gobierno japonés.
- Pero los expertos advierten que se puede engañar al software de predicción de IA.
Su información en línea podría usarse para predecir si podría cometer un delito.
Según los informes, Voyager Labs está recopilando información de las redes sociales para crear perfiles que se pueden usar para identificar a las personas que representan riesgos de seguridad. Es parte de un esfuerzo creciente por utilizar la inteligencia artificial (IA) para investigar a posibles delincuentes. Pero algunos expertos dicen que el movimiento está plagado de problemas potenciales.
"Es muy difícil predecir el comportamiento humano", dijo a Lifewire Matthew Carr, investigador de seguridad de Atumcell Group, en una entrevista por correo electrónico. "Ni siquiera somos capaces de predecir nuestro propio comportamiento, y mucho menos el de otra persona. Creo que es posible que la IA pueda usarse en el futuro para este propósito, pero estamos muy lejos de poder hacerlo en la actualidad"."
Creación de perfiles
Como informó recientemente The Guardian, el departamento de policía de Los Ángeles investigó el uso del software de predicción de delitos de Voyager Lab. La empresa también anunció que había sellado un importante acuerdo con una agencia del gobierno japonés.
El acuerdo japonés proporciona a la agencia gubernamental una plataforma de investigación basada en inteligencia artificial que analiza cantidades masivas de información de cualquier fuente, incluidos datos abiertos y profundos.
"Me alegra que estemos colaborando en la lucha contra el terrorismo y el crimen", dijo Divya Khangarot, directora general de APAC en Voyager Labs, en el comunicado de prensa. "Usando las soluciones de inteligencia de vanguardia de Voyager Lab, nuestros clientes obtienen capacidades únicas para identificar e interrumpir de manera proactiva amenazas potenciales. Brindamos capas adicionales de conocimientos de investigación profundos utilizando una combinación de inteligencia artificial, aprendizaje automático y OSINT para descubrir pistas ocultas, información infringida, y malos actores."
¿No es tan inteligente?
Pero en una entrevista por correo electrónico, Matt Heisie, cofundador de Ferret.ai, que también usa IA para predecir a los delincuentes, puso en duda algunas de las afirmaciones de Voyager Labs.
"¿Existe un vínculo tan claro entre, digamos, un registro de arresto y un futuro comportamiento delictivo, como hay un punto negro en una prueba y el desarrollo de un tumor?" él dijo. "Piense en todas las posibles confusiones que se produjeron en ese arresto: en qué vecindario vivía la persona, la cantidad y calidad, incluso los prejuicios, de la policía en esa área. La edad de la persona, su género, su apariencia física, todos tienen impactos cruzados en la probabilidad de que esa persona tenga antecedentes de arresto, completamente separados de su propensión real a cometer el crimen que estamos tratando de predecir".
Es más probable que los acusados con mejores abogados puedan suprimir los registros para que no estén disponibles públicamente, dijo Heisie. Algunas jurisdicciones limitan la publicación de fotografías policiales o registros de arrestos para proteger al acusado.
"La computadora aprenderá en función de los datos que le proporciones e incorporará todos los sesgos que intervinieron en esa recopilación de datos…"
"Todo esto agrega más sesgo a los algoritmos", agregó. "La computadora aprenderá en función de los datos que le proporcione e incorporará todos los sesgos que se incluyeron en esa recopilación de datos en el aprendizaje y la interpretación".
Ha habido varios intentos de crear inteligencia artificial que prediga el crimen y, a menudo, con resultados escandalosos, dijo Heisie.
COMPAS, un algoritmo que las fuerzas del orden público usan para predecir la reincidencia, se usa a menudo para determinar la sentencia y la fianza. Se ha enfrentado a un escándalo que se remonta a 2016 por prejuicios raciales, prediciendo que los acusados negros presentaban un mayor riesgo de reincidencia del que realmente tenían, y lo contrario para los acusados blancos.
Más de 1000 tecnólogos y académicos, incluidos académicos y expertos en inteligencia artificial de Harvard, MIT, Google y Microsoft, se pronunciaron en 2020 en contra de un artículo que afirmaba que los investigadores habían desarrollado un algoritmo que podía predecir la criminalidad basándose únicamente en un cara de la persona, diciendo que la publicación de tales estudios refuerza el sesgo racial preexistente en el sistema de justicia penal, señaló Heisie.
China es el mercado más grande y de más rápido crecimiento para este tipo de tecnología, principalmente debido al acceso generalizado a datos privados, con más de 200 millones de cámaras de vigilancia e investigación avanzada de inteligencia artificial enfocada en este tema durante muchos años, dijo Heisie.. Los sistemas como Police Cloud de CloudWalk ahora se utilizan para predecir y rastrear a los delincuentes y localizar a las fuerzas del orden.
"Sin embargo, allí también se informan sesgos sustanciales", dijo Heisie.
Heisie agregó que su compañía selecciona cuidadosamente los datos que ingresan y no usa fotos policiales ni registros de arrestos, "en lugar de eso, se enfoca en criterios más objetivos".
"Nuestra IA aprendió de los datos seleccionados, pero lo que es más importante, también aprende de las personas, quienes analizan, seleccionan y evalúan los registros y nos informan sobre sus interacciones con los demás", agregó. "También mantenemos la transparencia total y el acceso gratuito y público a nuestra aplicación (tan pronto como podamos dejarlos en versión beta), y agradecemos la información sobre nuestros procesos y procedimientos".