La conversation humaine est nuancée. L’IA est efficace. Trouver le bon équilibre entre l’humain et l’IA dans les conversations d’assistance est délicat, mais essentiel.

« Etes-vous un robot? » J’ai demandé. J’avais une question sur une voiture que je recherchais. Le robot a répondu à ma question, mais a ajouté quelque chose en plus, en disant: « C’est une belle balade. » J’ai trouvé cela légèrement ennuyeux parce que je ne pouvais soudainement pas dire si je parlais à un humain ou à un robot.

L’empathie synthétique retient-elle votre IA?

Si c’était un humain, je pourrais poser des questions différentes. Si c’était un robot, je ne voulais vraiment que des faits, pas de l’empathie synthétique. L’IA peut fournir des réponses plus rapidement et mieux que les humains dans de nombreuses situations. C’est la superpuissance de l’IA.

Essayer de rendre l’IA plus humaine en ralentissant les conversations et en ajoutant de l’empathie lorsqu’un client sait qu’il n’en existe pas est une mauvaise idée qui diminue l’expérience et agace le client.

Pourquoi l’empathie synthétique agace les clients

L’empathie synthétique, c’est quand un concepteur d’interaction dote une IA avec des modèles de réponse conçus pour imiter l’empathie humaine.

Nous faisons cela comme un clin d’œil à la tendance humaine à constamment garnir les conversations de touches empathiques conçues pour nous assurer de ne pas blesser les sentiments de quelqu’un et pour montrer que nous y prêtons attention.

Je déteste les faux – et toi ??

En suivant des protocoles conversationnels humains, la communication adopte un chemin moins direct vers la résolution d’un problème ou d’une question. C’est une grave erreur. Forcer un chemin détourné pour imiter les humains dilue la superpuissance de l’IA et dérange les personnes qu’elle tente de ravir – vos clients.

Conversation humaine

La conversation humaine est peut-être le protocole de communication le plus inefficace de la planète. La redondance et l’empathie qui forment le cœur d’une conversation normale sont profondément enracinées dans les interactions de personne à personne.

Nous sommes conditionnés à s’attendre à ce que les communications se produisent d’une certaine manière lorsque nous tentons de résoudre des problèmes. Nous prévoyons que la modification de la réservation d’un vol nous obligera à téléphoner, à expliquer notre situation et à voir un agent disant: «Je suis vraiment désolé que vous ayez manqué votre vol. Je vais vous aider à changer de réservation.

Cela dit, nous préférerions presque tous dire: «Hé, Siri. Mon vol a été annulé – changez-moi sur le prochain vol », et que cela se produise instantanément.

Nous ne nous souviendrions ni ne nous soucierions des plaisanteries ou de l’empathie parce que notre problème a été résolu rapidement et efficacement. Dans ce cas, Siri et l’IA derrière elle ont respecté notre temps. Cela démontrerait en fait le respect de notre temps – et en réalité – cette conversation montrerait la démonstration la plus profonde de l’empathie.

À l’inverse, la plupart d’entre nous se sentent ennuyés lorsque nous parlons à un agent de support AI conversationnel et qu’il dit: «Hmm, donnez-moi une seconde pour trouver vos enregistrements», et insère une pause artificielle. C’est un exemple classique d ‘«empathie synthétique» qui imite inutilement les communications humaines.

L’empathie synthétique peut refléter – mais ne parvient pas à fournir la vérité.

L’empathie synthétique peut refléter de très près l’empathie humaine. Mais la version synthétique échoue invariablement à produire l’effet escompté d’augmenter le bonheur des clients, car elle semble fausse.

Un péché encore plus grand est que l’empathie synthétique injecte trop souvent des frictions inutiles dans les interactions et ralentit l’achèvement d’une tâche.

Par exemple, un ensemble complexe de tâches telles que le dépannage d’un abonnement à une vidéo en streaming, la mise à jour des nouveaux paramètres et le crédit d’un client pour le temps manqué peut prendre 15 minutes d’interactions humaines. La tâche est de quelques secondes – et non de 15 minutes pour un robot IA.

Vitesse – Vitesse – Vitesse

Dans ce cas, la forme d’empathie la meilleure et la plus désirée est la rapidité d’exécution. Je me fiche que l’IA me fasse savoir qu’une voiture que je recherche est une belle voiture. Je veux poser la question suivante, merci beaucoup.

De plus, l’empathie synthétique limite non seulement la capacité de l’IA à répondre à nos besoins le plus rapidement possible, mais redirige également la conception de produits d’IA vers un terrier de mimétisme humain.

Une fois que nous avons supprimé les contraintes liées au maintien d’une conversation de type humain, l’IA devient beaucoup plus puissante et utile pour les humains. Les concepteurs de produits peuvent penser en termes de vitesse de résolution en termes d’IA plutôt qu’en termes de modèles de conversation en termes humains.

Les données indiquent que l’empathie synthétique n’est pas la bienvenue

L’empathie synthétique est endémique dans les systèmes d’IA aujourd’hui en raison de la conviction que les systèmes cognitifs devraient faire écho à la façon dont nous nous parlons.

En fait, les données ne corroborent pas cette croyance. Lorsque nous avons interrogé un nombre X de personnes sur leurs espoirs et leurs attentes en matière de service client, ils ont toujours placé la rapidité, la commodité et l’efficacité au premier rang de leurs désirs.

Que veut VRAIMENT votre client?

Les clients veulent que les problèmes soient résolus rapidement et préfèrent ne pas attendre. Et c’est un point clé.

Une majorité de ces répondants ont déclaré qu’il était essentiel que les entreprises respectent leur temps. Certes, aucun client ne souhaite des services, des ventes ou des interactions de support impolis et désagréables. Mais, toutes choses étant égales par ailleurs, l’empathie synthétique programmatique ne déplacera pas le besoin des clients – peu importe à quel point l’IA peut se rapprocher des conversations réelles.

Une nouvelle définition de l’empathie pour l’IA dépendante du contexte

Cela soulève une question plus importante. L’empathie dépend-elle du contexte?

Ces données semblent indiquer que la réponse est «oui», en particulier lorsque nous considérons les machines effectuant des tâches cognitives. Pour cette raison, nous devons mettre à jour notre définition de l’empathie pour tenir compte des forces de l’IA. Et nous devons éviter d’intégrer l’empathie synthétique dans l’IA.

Pour aller plus loin, nous devons repenser l’empathie client et adopter une nouvelle définition de l’empathie de l’IA qui valorise la réalisation rapide et efficace de toute tâche donnée.

Les clients veulent de la rapidité et de la commodité.

L’IA peut faire des choses en une infime fraction du temps nécessaire à un cerveau humain pour synthétiser et communiquer la tâche. En fait, l’IA peut facilement anticiper nos besoins. Une IA vraiment empathique pourrait noter que votre vol a été annulé, vous réserver pour le prochain vol et envoyer un SMS avec les nouvelles informations de vol et une note indiquant que c’est le moyen le plus rapide de rentrer chez vous.

Il n’y a pas de plaisanteries ou de pauses enceintes pour montrer à quel point l’IA est humaine. L’IA démontre un plus haut niveau d’empathie en nous faisant gagner du temps et des tracas.

Tous les attributs souhaités que les clients attendent d’une interaction avec une entreprise sont la rapidité, l’efficacité et la résolution complète. Ceux-ci sont vrai attributs, et ils décrivent les améliorations qu’une IA efficace, ciblée et axée sur les tâches peut apporter aux interactions avec les clients.

Oui, nous voulons l’IA – Laissez simplement l’IA faire le travail réel de l’IA

Seule une IA peut noter que votre vol a été annulé, analyser simultanément six options de vol différentes et calculer instantanément celle qui est la meilleure option à réserver pour vous ramener à la maison le plus rapidement possible.

Un humain ne peut pas traiter les informations aussi rapidement et est limité par ses sens. Alors pourquoi concevoir des systèmes d’IA avec des limitations humaines plutôt que des superpuissances d’IA?

Avec cette nouvelle définition de l’empathie, nous pouvons commencer à repenser ce que fait l’IA orientée client et comment elle le fait. Nous pouvons passer de réactif et même prédictif à proactif, en anticipant plusieurs souhaits et en les réalisant tous rapidement.

Avec l’exemple de la compagnie aérienne – l’IA ne se contentera pas de modifier la réservation du vol, mais planifiera également un Uber et enverra par SMS à votre famille les nouvelles informations d’arrivée.

Nous pouvons demander à l’IA d’optimiser sa superpuissance – vitesse et personnalisation.

La programmation de l’IA pour la vitesse et la personnalisation rendra l’IA contextuellement plus sympathique en supprimant la version synthétique.

Le don de temps et de commodité est la meilleure façon de montrer à un humain que vous vous souciez vraiment de lui.

Crédit d’image: emplois d’IA; pexels; Merci!

Puneet Mehta

Puneet Mehta

Puneet Mehta est le fondateur / PDG de Netomi, une plateforme d’intelligence artificielle basée sur l’expérience client soutenue par YC qui résout automatiquement les problèmes de service client au taux le plus élevé du secteur. Il a passé une grande partie de sa carrière en tant qu’entrepreneur technologique ainsi que dans le trading de bâtiments à Wall Street. Il a été reconnu comme membre de la liste Creativity 50 de Advertising Age et de Silicon Alley 100 de Business Insider et des 35 entrepreneurs émergents que vous devez rencontrer.