Por qué el nuevo software de generación de perfiles plantea problemas de privacidad

Tabla de contenido:

Por qué el nuevo software de generación de perfiles plantea problemas de privacidad
Por qué el nuevo software de generación de perfiles plantea problemas de privacidad
Anonim

Conclusiones clave

  • El software que utiliza inteligencia artificial para perfilar a las personas plantea problemas de privacidad.
  • Cryfe combina técnicas de análisis de comportamiento con inteligencia artificial.
  • La empresa china Alibaba se enfrentó recientemente a críticas después de que supuestamente dijera que su software podía detectar uigures y otras minorías étnicas.
Image
Image

El nuevo software impulsado por inteligencia artificial que está diseñado para que los empleadores elaboren perfiles de sus empleados plantea problemas de privacidad.

Una nueva plataforma de software, llamada Cryfe, combina técnicas de análisis de comportamiento con inteligencia artificial. El desarrollador afirma que al analizar pistas diminutas, el software puede revelar las intenciones de las personas durante las entrevistas. Pero algunos observadores dicen que Cryfe y otros tipos de software que analizan el comportamiento pueden invadir la privacidad.

"Las empresas confían cada vez más en la IA para la creación de perfiles", dijo el experto en IA Vaclav Vincale en una entrevista por correo electrónico. "Pero incluso los humanos que codifican estos algoritmos, y mucho menos una persona de atención al cliente con la que te comunicas por teléfono, no pueden decirte por qué hacen una recomendación dada".

Más que palabras

Cryfe fue desarrollado por una empresa suiza cuyos empleados fueron capacitados por el FBI en técnicas de creación de perfiles. "Cryfe, en toda comunicación interpersonal, no solo escucha palabras, sino que identifica otras señales emitidas por el ser humano, como emociones, microexpresiones y todos los gestos", dijo Caroline Matteucci, fundadora de Cryfe, en una entrevista por correo electrónico.

"Durante el reclutamiento, por ejemplo, esto nos permite ir a buscar la personalidad real de nuestro interlocutor."

Matteucci dijo que la privacidad de los usuarios está protegida porque la empresa es transparente sobre cómo funciona su software. “El usuario, antes de poder utilizar la plataforma, debe aceptar las condiciones generales”, dijo.

"Se especifica allí que el usuario no podrá en ningún caso someter a análisis una entrevista sin haber recibido el consentimiento por escrito del interlocutor."

Cryfe no es el único software impulsado por IA que pretende analizar el comportamiento humano. También está Humantic, que afirma analizar el comportamiento del consumidor. "La tecnología pionera de Humantic predice el comportamiento de todos sin que tengan que hacer una prueba de personalidad", según el sitio web de la empresa.

Image
Image

La empresa afirma utilizar IA para crear los perfiles psicológicos de los solicitantes en función de las palabras que utilizan en sus currículos, cartas de presentación, perfiles de LinkedIn y cualquier otro texto que envíen.

El software conductual ha enfrentado desafíos legales en el pasado. En 2019, Bloomberg Law informó que la Comisión de Igualdad de Oportunidades en el Empleo (EEOC, por sus siglas en inglés) investigó casos de presunta discriminación ilegal debido a decisiones relacionadas con recursos humanos asistidas por algoritmos.

"Todo esto tendrá que resolverse porque el futuro del reclutamiento es la inteligencia artificial", dijo el abogado Bradford Newman a Bloomberg.

Algunos observadores no están de acuerdo con las empresas que utilizan software de seguimiento del comportamiento porque no es lo suficientemente preciso. En una entrevista, Nigel Duffy, líder global de inteligencia artificial en la firma de servicios profesionales EY, dijo a InformationWeek que está preocupado por el software que usa cuestionarios de redes sociales y detección de afecto.

"Creo que hay literatura realmente convincente sobre el potencial para la detección de afectos, pero entiendo que la forma en que se implementa a menudo es bastante ingenua", dijo.

"La gente saca conclusiones que la ciencia realmente no respalda [como] decidir que alguien es un buen empleado potencial porque sonríe mucho o decide que a alguien le gustan sus productos porque sonríe mucho."

Empresas chinas reportan perfiles de minorías

El seguimiento del comportamiento también podría tener propósitos más siniestros, dicen algunos grupos de derechos humanos. En China, el gigante del mercado en línea Alibaba recientemente causó revuelo después de que supuestamente afirmara que su software podía detectar uigures y otras minorías étnicas.

El New York Times informó que el negocio de computación en la nube de la compañía tenía un software que escaneaba imágenes y videos.

Pero incluso los humanos que codifican estos algoritmos… no pueden decirte por qué hacen una recomendación determinada.

El Washington Post también informó recientemente que Huawei, otra empresa tecnológica china, había probado un software que podía alertar a las fuerzas del orden público cuando sus cámaras de vigilancia detectaban rostros uigures.

Una solicitud de patente de 2018 de Huawei supuestamente afirmó que la "identificación de los atributos de los peatones es muy importante" en la tecnología de reconocimiento facial."Los atributos del objeto objetivo pueden ser género (masculino, femenino), edad (como adolescentes, de mediana edad, anciano) [o] raza (han, uigur)", decía la aplicación.

Un portavoz de Huawei le dijo a CNN Business que la función de identificación étnica "nunca debería haberse convertido en parte de la aplicación".

El creciente uso de la inteligencia artificial para clasificar grandes cantidades de datos seguramente generará preocupaciones sobre la privacidad. Es posible que nunca sepas quién o qué te está analizando la próxima vez que vayas a una entrevista de trabajo.

Recomendado: