La IA puede estar poniéndose al día con el razonamiento humano

Tabla de contenido:

La IA puede estar poniéndose al día con el razonamiento humano
La IA puede estar poniéndose al día con el razonamiento humano
Anonim

Conclusiones clave

  • Los investigadores han creado técnicas que permiten a los usuarios clasificar los resultados del comportamiento de un modelo de aprendizaje automático.
  • Los expertos dicen que el método muestra que las máquinas están alcanzando las habilidades de pensamiento de los humanos.
  • Los avances en IA podrían acelerar el desarrollo de la capacidad de las computadoras para comprender el lenguaje y revolucionar la forma en que la IA y los humanos interactúan.
Image
Image

Una nueva técnica que mide el poder de razonamiento de la inteligencia artificial (IA) muestra que las máquinas están alcanzando a los humanos en su capacidad de pensar, dicen los expertos.

Investigadores del MIT e IBM Research han creado un método que permite a un usuario clasificar los resultados del comportamiento de un modelo de aprendizaje automático. Su técnica, llamada Interés Compartido, incorpora métricas que comparan qué tan bien el pensamiento de un modelo coincide con el de las personas.

"Hoy en día, la IA es capaz de alcanzar (y, en algunos casos, superar) el desempeño humano en tareas específicas, incluido el reconocimiento de imágenes y la comprensión del lenguaje", Pieter Buteneers, director de ingeniería en aprendizaje automático e IA en las comunicaciones compañía Sinch, le dijo a Lifewire en una entrevista por correo electrónico. "Con el procesamiento del lenguaje natural (NLP), los sistemas de IA pueden interpretar, escribir y hablar idiomas tan bien como los humanos, y la IA puede incluso ajustar su dialecto y tono para alinearse con sus pares humanos".

Inteligencia artificial

AI a menudo produce resultados sin explicar por qué esas decisiones son correctas. Y las herramientas que ayudan a los expertos a dar sentido al razonamiento de un modelo a menudo solo brindan información, solo un ejemplo a la vez. La IA generalmente se entrena utilizando millones de entradas de datos, lo que dificulta que un ser humano evalúe suficientes decisiones para identificar patrones.

En un artículo reciente, los investigadores dijeron que Shared Interest podría ayudar a un usuario a descubrir tendencias en la toma de decisiones de un modelo. Y esta información podría permitir al usuario decidir si un modelo está listo para implementarse.

“Al desarrollar Shared Interest, nuestro objetivo es poder ampliar este proceso de análisis para que pueda comprender a un nivel más global cuál es el comportamiento de su modelo”, Angie Boggust, coautora del artículo., dijo en el comunicado de prensa.

Shared Interest utiliza una técnica que muestra cómo un modelo de aprendizaje automático tomó una decisión particular, conocida como métodos de prominencia. Si el modelo está clasificando imágenes, los métodos de prominencia res altan áreas de una imagen que son importantes para el modelo cuando toma su decisión. Shared Interest funciona comparando los métodos de prominencia con las anotaciones generadas por humanos.

Los investigadores utilizaron Shared Interest para ayudar a un dermatólogo a determinar si debería confiar en un modelo de aprendizaje automático diseñado para ayudar a diagnosticar el cáncer a partir de fotografías de lesiones en la piel. Shared Interest permitió al dermatólogo ver rápidamente ejemplos de las predicciones correctas e incorrectas del modelo. El dermatólogo decidió que no podía confiar en el modelo porque hacía demasiadas predicciones basadas en artefactos de imágenes en lugar de lesiones reales.

“El valor aquí es que al usar Interés compartido, podemos ver estos patrones emerger en el comportamiento de nuestro modelo. En aproximadamente media hora, el dermatólogo pudo decidir si confiar o no en el modelo y si desplegarlo o no”, dijo Boggust.

El razonamiento detrás de la decisión de un modelo es importante tanto para el investigador de aprendizaje automático como para el tomador de decisiones.

Midiendo el progreso

El trabajo de los investigadores del MIT podría ser un importante paso adelante para el progreso de la IA hacia la inteligencia a nivel humano, dijo Ben Hagag, jefe de investigación de Darrow, una empresa que utiliza algoritmos de aprendizaje automático, a Lifewire en una entrevista por correo electrónico..

“El razonamiento detrás de la decisión de un modelo es importante tanto para el investigador de aprendizaje automático como para quien toma las decisiones”, dijo Hagag. “El primero quiere comprender qué tan bueno es el modelo y cómo se puede mejorar, mientras que el segundo quiere desarrollar un sentido de confianza en el modelo, por lo que deben comprender por qué se predijo ese resultado”.

Pero Hagag advirtió que la investigación del MIT se basa en la suposición de que entendemos o podemos anotar el entendimiento humano o el razonamiento humano.

“Sin embargo, existe la posibilidad de que esto no sea exacto, por lo que se necesita más trabajo para comprender la toma de decisiones humana”, agregó Hagag.

Image
Image

Los avances en IA podrían acelerar el desarrollo de la capacidad de las computadoras para comprender el lenguaje y revolucionar la forma en que la IA y los humanos interactúan, dijo Buteneers. Los chatbots pueden entender cientos de idiomas a la vez, y los asistentes de IA pueden escanear cuerpos de texto en busca de respuestas a preguntas o irregularidades.

“Algunos algoritmos pueden incluso identificar cuándo los mensajes son fraudulentos, lo que puede ayudar tanto a las empresas como a los consumidores a eliminar los mensajes de spam”, agregó Buteneers.

Pero, dijo Buteneers, la IA todavía comete algunos errores que los humanos nunca cometerían. “Si bien a algunos les preocupa que la IA reemplace los trabajos humanos, la realidad es que siempre necesitaremos personas que trabajen junto con los bots de IA para ayudar a mantenerlos bajo control y evitar estos errores mientras se mantiene un toque humano en los negocios”, agregó.

Recomendado: