Por qué necesitamos una IA que se explique por sí sola

Tabla de contenido:

Por qué necesitamos una IA que se explique por sí sola
Por qué necesitamos una IA que se explique por sí sola
Anonim

Conclusiones clave

  • Las empresas utilizan cada vez más la IA que explica cómo obtiene resultados.
  • LinkedIn aumentó recientemente sus ingresos por suscripciones después de usar IA que predijo los clientes en riesgo de cancelar y describió cómo llegó a sus conclusiones.
  • La Comisión Federal de Comercio ha dicho que la IA que no se puede explicar podría investigarse.
Image
Image

Una de las últimas tendencias en software podría ser la inteligencia artificial (IA), que explica cómo logra sus resultados.

La IA explicable está dando sus frutos a medida que las empresas de software intentan hacer que la IA sea más comprensible. LinkedIn aumentó recientemente sus ingresos por suscripciones después de usar IA que predijo los clientes en riesgo de cancelar y describió cómo llegó a sus conclusiones.

"La IA explicable se trata de poder confiar en el resultado y comprender cómo llegó allí la máquina", dijo a Lifewire en una entrevista por correo electrónico Travis Nixon, director ejecutivo de SynerAI y jefe de ciencia de datos y servicios financieros de Microsoft..

"'¿Cómo?' es una pregunta que se les hace a muchos sistemas de IA, especialmente cuando se toman decisiones o se producen resultados que no son los ideales”, agregó Nixon. "Desde tratar a las diferentes razas injustamente hasta confundir una cabeza calva con una pelota de fútbol, necesitamos saber por qué los sistemas de IA producen sus resultados. Una vez que comprendemos el 'cómo', posiciona a las empresas y a las personas para responder '¿qué sigue?'".

Conocer la IA

AI ha demostrado ser precisa y hace muchos tipos de predicciones. Pero la IA a menudo puede explicar cómo llegó a sus conclusiones.

Y los reguladores se están dando cuenta del problema de la explicabilidad de la IA. La Comisión Federal de Comercio ha dicho que la IA que no es explicable podría investigarse. La UE está considerando la aprobación de la Ley de Inteligencia Artificial, que incluye requisitos para que los usuarios puedan interpretar las predicciones de la IA.

Linkedin se encuentra entre las empresas que creen que la IA explicable puede ayudar a aumentar las ganancias. Antes, los vendedores de LinkedIn confiaban en su conocimiento y pasaban una gran cantidad de tiempo revisando datos fuera de línea para identificar qué cuentas tenían más probabilidades de continuar haciendo negocios y qué productos podrían interesarles durante la próxima renovación del contrato. Para resolver el problema, LinkedIn inició un programa llamado CrystalCandle que detecta tendencias y ayuda a los vendedores.

En otro ejemplo, Nixon dijo que durante la creación de un modelo de establecimiento de cuotas para la fuerza de ventas de una empresa, su empresa pudo incorporar una IA explicable para identificar qué características apuntaban a una nueva contratación de ventas exitosa.

"Con este resultado, la gerencia de esta empresa pudo reconocer qué vendedores poner en la 'vía rápida' y cuáles necesitaban capacitación, todo antes de que surgieran problemas importantes", agregó.

Muchos usos de la IA explicable

La IA explicable se utiliza actualmente como un control intuitivo para la mayoría de los científicos de datos, dijo Nixon. Los investigadores ejecutan su modelo a través de métodos simples, se aseguran de que nada esté completamente fuera de servicio y luego envían el modelo.

"Esto se debe en parte a que muchas organizaciones de ciencia de datos han optimizado sus sistemas en torno al 'tiempo sobre el valor' como KPI, lo que genera procesos apresurados y modelos incompletos", agregó Nixon.

Me preocupa que el retroceso de los modelos irresponsables pueda hacer retroceder gravemente a la industria de la IA.

La gente a menudo no está convencida de los resultados que la IA no puede explicar. Raj Gupta, director de ingeniería de Cogito, dijo en un correo electrónico que su empresa encuestó a los clientes y descubrió que casi la mitad de los consumidores (43 %) tendría una percepción más positiva de una empresa y de la IA si las empresas fueran más explícitas sobre su uso. de la tecnología

Y no son solo los datos financieros los que reciben ayuda de la IA explicable. Un área que se está beneficiando del nuevo enfoque son los datos de imágenes, donde es fácil indicar qué partes de una imagen el algoritmo cree que son esenciales y donde es fácil para un ser humano saber si esa información tiene sentido, Samantha Kleinberg, profesora asociada de Stevens. Institute of Technology y experto en IA explicable, le dijo a Lifewire por correo electrónico.

"Es mucho más difícil hacer eso con un electrocardiograma o datos de un monitor de glucosa continuo", agregó Kleinberg.

Nixon predijo que la IA explicable sería la base de todos los sistemas de IA en el futuro. Y sin una IA explicable, los resultados podrían ser nefastos, dijo.

"Espero que progresemos en este frente lo suficiente como para dar por sentada la IA explicable en los años venideros y que miremos hacia atrás en ese momento hoy sorprendidos de que alguien esté lo suficientemente loco como para implementar modelos que no entendieron”, agregó."Si no nos enfrentamos al futuro de esta manera, me preocupa que el retroceso de los modelos irresponsables pueda hacer retroceder a la industria de la IA de una manera grave".

Recomendado: