Conclusiones clave
- Los programas de inteligencia artificial como Cogito intentan enseñar a los humanos la empatía en el trato con los clientes.
- Los expertos no están de acuerdo sobre si es posible que una máquina enseñe empatía a las personas o si simplemente está encontrando puntos de datos.
- A algunos expertos también les preocupa que enseñar empatía a la IA pueda robarle a la humanidad esa emoción.
Imagínese que está trabajando en un centro de llamadas y llama un cliente. Respondes, y enseguida, las cosas empiezan a ir mal. El cliente está enojado y aumentan las tensiones.
Empiezas a decir cosas de las que luego te arrepentirás. De repente, aparece un mensaje en la pantalla de su computadora. "Pista de empatía: piense en cómo se siente el cliente. Trate de identificarse".
No es una persona real que te dice qué hacer. Es un mensaje de Cogito, un programa de inteligencia artificial diseñado para ayudar a los trabajadores a empatizar con las personas que llaman frustradas y mejorar el rendimiento. Cogito es uno de un número creciente de programas de IA que intentan enseñar empatía a los humanos.
Hay una ironía obvia aquí. Los científicos humanos han estado tratando durante décadas de hacer computadoras más realistas. Ahora, las máquinas nos están diciendo cómo comportarnos. Pero, ¿realmente el software puede enseñarnos cómo ser más empáticos? Es un problema que podría tener profundas implicaciones a medida que la inteligencia artificial comienza a impregnar la vida diaria.
IA imita el comportamiento humano
Desde un punto de vista técnico, está claro que la IA puede captar pistas sobre cómo se sienten los humanos y brindar retroalimentación.
"La inteligencia artificial y los sistemas de aprendizaje automático son muy buenos para encontrar patrones en los datos", dijo Adam Poliak, becario postdoctoral en informática en Barnard College, en una entrevista por correo electrónico.
"Si le damos a una IA muchos ejemplos de texto empático, la IA puede descubrir patrones y señales que evocan o demuestran empatía".
La IA puede estar programada para desglosar algunos de los comportamientos humanos que acompañan a la empatía y recordarles a los humanos que los lleven a cabo, pero eso no es enseñar empatía.
La IA que analiza las reacciones humanas puede ayudar a cerrar la creciente brecha entre las personas a medida que nos comunicamos digitalmente, dijo Bret Greenstein, experto en IA de Cognizant Digital Business, en una entrevista por correo electrónico.
"Durante el último año, el tiempo real, el video, la voz y la mensajería crecieron más rápido de lo que nadie podría haber imaginado, y con ello surgieron enormes desafíos para crear relaciones verdaderamente empáticas sin pasar tiempo físico con las personas", dijo. añadido.
AI puede ayudar a analizar y evaluar características como el tono y la emoción en el habla, dijo Greenstein. "Esto puede ayudar a la persona que recibe las comunicaciones a comprender mejor lo que se quiere decir, y ayuda a la persona que 'habla' al mostrar cómo se pueden interpretar los mensajes", agregó.
Mientras las empresas se apresuran a sacar provecho del software de capacitación de IA como Cogito, la pregunta de si la IA puede enseñar empatía a los humanos sigue abierta. Y la respuesta puede tener tanto que ver con la filosofía como con la tecnología.
Ilia Delio es teóloga de la Universidad de Villanova cuyo trabajo se centra en la intersección de la fe y la ciencia. Ella cree que la IA puede enseñar empatía.
Delio señaló que un equipo del MIT ha construido robots que pueden imitar emociones humanas como la felicidad, la tristeza y la compasión. "Si bien las emociones robóticas están programadas, los robots pueden interactuar con los humanos y así establecer o reforzar patrones neuronales", dijo.
¿Puede una máquina entender la empatía?
Los expertos definen al menos tres formas de empatía, todas implican la capacidad de comprender y relacionarse con otra persona, dijo Karla Erickson, socióloga de Grinnell College en Iowa y autora del próximo libro, Messy Humans: A Sociology of Relaciones humano/máquina, que explora nuestras relaciones con la tecnología.
"Relacionarse no es algo que la IA pueda hacer, y es la base de la empatía", dijo Erickson en una entrevista por correo electrónico.
"La IA puede estar programada para desglosar algunos de los comportamientos humanos que acompañan a la empatía y recordarles a los humanos que los realicen, pero eso no es enseñar empatía. Relacionarse, especialmente en términos de empatía, requeriría que el oyente tenga la contexto necesario para relacionar; con esto quiero decir que la 'vida' de una IA no incluye pérdida, anhelo, esperanza, dolor o muerte".
Sin embargo, los expertos discrepan sobre si la IA puede enseñarnos cómo empatizar. Parte del problema es que no todo el mundo está de acuerdo en lo que significa "empatía" o "IA". El término inteligencia artificial se usa mucho, pero actualmente no es el tipo de inteligencia que consideramos humana.
Esto es puro trabajo de ingeniería, y no tengo la ilusión de que la IA en cuestión tenga emociones o las entienda genuinamente.
"Las 'señales de empatía' no tienen nada que ver con la empatía", dijo Michael Spezio, profesor de psicología, neurociencia y ciencia de datos en Scripps College, en una entrevista por correo electrónico.
"Son señales de voces que los evaluadores humanos han clasificado como voces de personas que están irritadas o molestas. Por lo tanto, solo se utiliza la experiencia humana en un modelo matemático y luego se afirma que el modelo basado en la experiencia humana es inteligente. Los enfoques limitados de aprendizaje automático como este a menudo se promocionan como IA sin ser inteligentes".
En el Instituto Politécnico Rensselaer, el laboratorio de Selmer Bringsjord está construyendo modelos matemáticos de las emociones humanas. La investigación tiene como objetivo crear una IA que pueda obtener una puntuación alta en las pruebas de inteligencia emocional y aplicarlas a los humanos. Pero Bringsjord, un experto en IA, dice que cualquier enseñanza que haga la IA es inadvertida.
"Pero esto es puro trabajo de ingeniería, y no tengo la ilusión de que la IA en cuestión tenga emociones o las entienda genuinamente", dijo en una entrevista por correo electrónico.
¿Qué podría salir mal?
Mientras que compañías como Cogito ven un futuro brillante en el entrenamiento de humanos con IA, otros observadores son más cautelosos.
Supportiv, un servicio de salud mental en línea, utiliza IA para enrutar a cada usuario, en función de cualquier pensamiento que exprese, en tiempo real, a un grupo de apoyo de pares sobre un tema específico que se reúne dinámicamente para usuarios con problemas similares.
Cada grupo tiene un moderador humano "superpoderoso" que mantiene el chat basado en texto seguro y libre de trolls y puede mostrar, nuevamente a través de IA, recursos relevantes, recomendaciones y referencias directamente en la conversación grupal. Con IA, Supportiv entrena a sus moderadores para que sean expertos en detectar la intensidad de las necesidades emocionales.
"La empatía es un músculo que construimos", dijo Zara Dana, científica de datos de Supportiv, en una entrevista por correo electrónico.
"Si comenzamos a usar una muleta para caminar, nuestros músculos se atrofiarán. No puedo evitar preguntarme si un trabajador dependiente se sentiría seguro si el sistema de IA no estuviera en línea algún día. ¿Podrá hacerlo? trabajo de manera efectiva? ¿Cuáles son los efectos a largo plazo en los trabajadores? ¿Cómo navegarían situaciones sociales complejas donde la IA está ausente?"
Incluso si usar la IA para enseñar empatía funciona, ¿qué sucede cuando comenzamos a depender demasiado de la IA para entrenar las emociones? Una posible desventaja es que los humanos pueden apegarse más a los robots que a otras personas humanas porque los robots no pueden elegir en contra de su programa, señaló Delio.
"La capacidad humana para el libre albedrío coloca la agencia humana en una posición más ambigua", dijo Delio. "Una persona puede ser compasiva un día y despiadada al día siguiente; un robot seguirá siendo compasivo a menos que se le entrene para hacer lo contrario".
Hay muchas cosas que podrían salir mal si la IA enseña a los humanos cómo comportarse como personas, dicen los expertos.
Hemos evolucionado para ser animales sociales, y nuestra empatía es fundamental para nuestra capacidad de conectarnos con los demás y preocuparnos por los colectivos a los que pertenecemos.
"Sin supervisión humana, el estudiante podría aprender algo absolutamente loco", dijo Bringsjord.
"El tono y el tono de la voz son meros correlatos de comportamiento, sin ningún contenido. Dólares a donas mi voz mientras enseño en el salón de clases sería interpretada por muchos… como una indicación de que estoy molesto, cuando en realidad, yo' Soy un apasionado y necesito mínimamente empatía".
Si el entrenamiento de seres humanos con IA prospera, es posible que lleguemos a confiar en él. Y eso no es necesariamente algo bueno.
"Esta capacitación devalúa las habilidades humanas, que son considerables, y cambia la atención hacia la IA como si fueran los que tienen experiencia", dijo Erickson."Hemos evolucionado para ser animales sociales, y nuestra empatía es fundamental para nuestra capacidad de conectarnos con los demás y preocuparnos por los colectivos a los que pertenecemos".