Intelligence Artificielle et relation client : une même quête de « sens » ?

On a longtemps opposé le monde « numérique et virtuel », au monde dit – par opposition – « réel et physique ». Pendant plusieurs années, ces deux univers semblaient en effet évoluer en parallèle comme s’ils n’étaient jamais amenés à se rencontrer.

Il semblait y avoir, en somme, deux routes bien distinctes et parallèles, ayant chacune ses propres règles, son propre code de la route, ses propres limitations de vitesse voire, dans l’esprit de quelques journalistes avisés, ses propres utilisateurs (!).

Aujourd’hui, chacun sait au moins que les utilisateurs sont bien, au fond, les mêmes. Ils empruntent simplement alternativement ces autoroutes, profitant de quelques bretelles d’accès, selon qu’ils veulent aller plus vite, éviter certains péages ou prendre le temps d’apprécier la route et le paysage.

La réalité, c’est que le monde vers lequel nous tendons tous est encore bien différent. Car ce monde ne distinguera pas deux routes. Elle sera la même, tout simplement.

Pour le comprendre, il suffit de saisir à quel point l’une et l’autre s’attirent en ce moment, mutuellement, comme de véritables aimants.

Le retailer physique, par exemple, se digitalise de plus en plus et ce, dans l’ensemble de sa chaîne de valeur : présence marketing sur les réseaux sociaux, digital signage, bornes connectées, achat d’espace mobile drive-to-store, showrooming, etc… Le néologisme « Phygital Commerce » témoigne à lui-seul de la fusion des deux autoroutes.

De son côté, le digital n’est pas en reste. Il tend, lui, à devenir de plus en plus tangible. Preuve à l’appui, Ali Baba, le géant chinois aux 30.7 milliards de chiffre d’affaires réalisés en 24h le 11 novembre dernier (le PIB annuel de la Lettonie !), s’est offert en 2017 la foncière de centres commerciaux Intime Retail. De son côté, Amazon – non content d’avoir racheté l’enseigne Whole Foods il y a deux ans, vient de lancer sa propre enseigne physique « 4-Star », où les produits les mieux notés par les clients eux-mêmes sont présentés sur étagères.

Cette tendance de fond illustre bien une chose : l’expérience humaine (et non plus uniquement virtuelle) est une obsession des acteurs du web.

Mais pour réunir les deux autoroutes, il existe en réalité deux voies : la première consiste à faire profiter l’expérience physique des atouts du digital. La seconde à rendre l’expérience digitale de plus en plus humaine.

Et sur ce créneau-là, les géants du numérique donnent la cadence. Leur atout majeur ? L‘intelligence artificielle (IA).

L’IA, comment ça marche ?

Démystifions tout de suite la chose. L’IA n’est pas franchement intelligente. Elle est-même franchement stupide, à en croire les propos même d’Andrew Moore, le patron de l’IA chez Google Cloud.

Pour autant, avouons-le sans ambages, elle est déjà capable de véritables prouesses (pour une machine à tout le moins).

La logique est assez simple car basée sur le modèle d’apprentissage aristotélicien : le cerveau humain a ceci de particulier qu’il est capable d’extraire des schémas directeurs à partir d’exemples. C’est cette approche que les algorithmes dits de « Machine Learning » adoptent : montrez à la machine suffisamment d’exemples, supervisez son apprentissage (disons en lui donnant un sucre si elle a bon), elle sera alors capable d’en extraire des caractéristiques clés, socles de ses décisions futures.

Mieux : plus elle sera nourrie d’exemples, plus elle sera douée. Seuls changeront alors ses algorithmes (plus complexes, multicouches, on les appelle de Deep Learning), et les capacités de traitements des machines (vitesse des processeurs et capacités de stockage des serveurs pour faire simple).

C’est exactement ainsi que fonctionne la reconnaissance d’images par la machine notamment utilisée dans les véhicules autonomes : des millions de photos d’un objet en basse résolution sont fournies à la machine. Celle-ci la décompose de façon très mathématique : pour elle, elles ne sont qu’une somme de pixels, remplis, ou non. En réunissant les pixels, la machine « constate » un schéma récurrent : lorsque dans une partie de l’image se trouvent agencés d’une certaine façon un certain nombre d’entre eux, elle « reconnaîtra » une forme, par exemple, de roue. Dans une autre partie de l’image, un rétroviseur, etc… L’humain ayant étiqueté l’image au préalable (c’est-à-dire en lui donnant un nom), ici de « voiture », la machine sera capable de savoir que pareil agencement de pixels correspond à l’image d’une « voiture ».

Bien sûr, parfois, au début, elle se trompe. Alors, l’homme l’éduque en lui disant « non, ici, tu te trompes, ce n’est pas une voiture ». Avec cet apprentissage par essai-erreur, l’algorithme est en mesure de s’autorégler. Jusqu’à ce que, de façon satisfaisante, il ait statistiquement souvent raison.

Comprenez bien toutefois avec cet exemple que la machine sait dire « voiture ». Elle ne sait pas ce que c’est, à quoi ça sert, à quoi ça pourrait servir de façon détournée (par exemple de barricade), etc…

Cet apprentissage aristotélicien n’a en revanche rien à voir avec l’apprentissage platonicien : une machine ne sait pas apprendre en formulant des hypothèses. Elle tire ces schémas de ses expériences…

L’exemple que nous avons donné est tout aussi vrai dans le domaine de l’analyse prédictive : la machine étant capable d’élaborer des caractéristiques communes entre des photos, elle peut aussi le faire entre des événements. Ainsi, elle sera en mesure d’établir des corrélations (invisibles pour nous !) entre des éléments n’ayant a priori aucun rapport entre eux. Elle serait, par exemple, théoriquement capable de savoir que les ventes de barbecues rouges vont être boostée dans un magasin s’ils sont à droite en entrant, à 49.90€ (plutôt qu’à 48€ !), si la température extérieure est comprise entre 18° et 21° et que la pression atmosphérique est faible.

C’est sur ces mêmes principes que fonctionne la reconnaissance vocale : la machine décompose de façon tout aussi mathématique un son, avec sa longueur d’onde et sa fréquence hertzienne jusqu’à établir le lien avec (i.e. reconnaître) un phonème, puis une syllabe et un mot.

L’IA en quête de sens

Une autre discipline de l’IA consiste ensuite à donner du sens à ce mot, d’un point de vue linguistique. Celle-ci se nomme le « traitement automatique du langage naturel ». C’est ce pan de l’IA qui nourrit les fameux chatbots (agents conversationnels) censés entrer en relation, en langage naturel (par opposition au langage informatique codé), avec l’humain.

L’état de l‘art reste toutefois très limité en la matière puisque tout ceci reste dans le domaine du « question/réponse » ou « question/action ».

Il n’y a d’intelligence en la matière que dans la capacité pour la machine de savoir que derrière 1 000 façons de poser une question se trouve en fait … la même question. Il suffit alors à la machine d’aller extraire la réponse dans une base de données configurée pour apporter une réponse scénarisée (moteur d’inférences : SI telle question est posée ALORS apporte telle réponse).

Contrairement toutefois à ce que l’on pourrait penser, l’IA ne passe pas par la case « compréhension » de ce qui a été demandé : elle associe des sacs de mot à une requête et va chercher la réponse associée à ce sac de mots.

A titre d’exemple, lorsque vous demandez « à quelle heure arrive le train 6125 ? », ne pensez pas que la machine sait ce qu’est une « heure » (la notion de temps lui échappe complètement), pas plus qu’elle ne sait ce qu’est un train. Ce « sac de mots » lui permet de constituer une requête : « arrive » signifie qu’il faut que la machine regarde dans la colonne « arrivée » de la base et « train 6125 » signifie que la ligne à regarder pour elle dans la table de données est celle qui se nomme « 6125 ». Elle ne fait alors qu’extraire la donnée qui se trouve dans la case au croisement de ces infos (numéro de train & heure d’arrivée) et vous la présente en langage naturel : « le train 6125 arrive à 22h03 ».

Bref, le moteur vient d’exécuter une requête mais n’a rien compris, ni de la question, ni de la réponse. Il n’est pas du tout passé par la case « sens ».

En définitive, l’état de l’art technique est loin de la compréhension est l’IA reste bien en quête de sens.

Et la relation client dans tout ça ?

Outre l’agent conversationnel (enfin, on l’aura compris dans le descriptif ci-dessus, ce n’est pas franchement une conversation !) qui permet de dégrossir un peu le premier contact avec le client ou prospect sans l’obliger à taper sur la touche étoile de son téléphone, l’IA permet d’anticiper beaucoup de choses.

Ainsi, en dressant des schémas récurrents en face d’un profilage de clients clusterisés, elle permet d’identifier dans un email ou même une conversation orale non seulement les raisons d’un appel mais aussi le risque associé, le degré d’urgence, et d’y associer plus rapidement un humain si nécessaire.

On le sait, le domaine du SAV n’échappe lui non plus pas à la Loi de Pareto qui veut que 80% des appels concernent généralement les mêmes 20% de questions. Scénariser ces questions et y préparer les réponses automatisées adéquates est désormais chose aisée. Le désengorgement des services qui en découle est alors une évidence : la tâche de l’opérateur s’en voit enrichie puisque les sempiternelles mêmes questions sont laissées à la charge du robot pour ne poursuivre la relation humaine que sur les problématiques où l’être de chair et d’os a la plus forte valeur ajoutée.

Dans le même registre, la reconnaissance d’images permet aujourd’hui de traiter les réclamations manuscrites et autres documentations (documents d’identité, justificatifs de domicile, etc…) de façon parfaitement automatisée sans concentrer l’humain sur des tâches rébarbatives de simple saisie. Une étape clef de la relation client est alors automatisée pour fournir l’info pertinente directement à l’humain pour analyse.

L’analyse efficiente induit le recours à la raison et à ses subtilités. Elle permet notamment à notre esprit de nuancer et de faire preuve de discernement dans des situations à priori similaire.

On comprend dès lors que la quête de sens de l’IA actuelle ne s’entend pas nécessairement de la façon dont nous l’appréhenderions de prime abord. La quête de sens de l’IA est celle de la compréhension. L’IA est bête telle qu’elle existe aujourd’hui, c’est un fait. Elle fait des choses phénoménales, nous l’avons écrit plus haut, mais elle ne comprend pas ce qu’elle fait et par extension ni éprouve aucun plaisir. Elle n’est pas capable de raisonner car elle ne conceptualise pas les choses comme nous le faisons nous-mêmes.

Chez In Principio, laboratoire de recherche en IA, nous nous appuyons justement entre autres sur les sciences cognitives pour modéliser le cerveau humain. Autrement dit, nous rendons la machine capable de raisonner. Ne vous méprenez pas, nous ne parlons pas ici de science-fiction, de capacité pour la machine d’avoir une conscience d’elle-même, de ressentir des émotions et d’être de ce fait capable d’empathie. Non, il s’agit du Logos, au sens grec du terme.

Ainsi donc, la machine sera demain capable d’écoute, de distiller ses conseils en adaptant ses propos au profil de l’interlocuteur, d’expliquer, de présenter des bénéfices clients clairs, circonscrits et priorisés. Capable d’argumenter, elle pourra aussi négocier.

Ce sont les premiers pas de ce que les spécialistes appellent l’Intelligence Artificielle Générale (Artificial General Intelligence AGI).

Le client, en quête d’information, de produits, de services, pourra demain s’appuyer sur les compétences d’une machine à la fois nourrie des dires d’experts mais aussi capable d’en simplifier le propos. Tout simplement car elle aura « compris ».

Mieux encore, puisque c’est une machine, elle ne saura pas mentir à un client qui n’aura, de son côté, pas peur d’être jugé parce qu’il ne comprend pas et qu’il demande des éclairages à répétition sur des questions qui paraissent trop évidentes à des spécialistes jugeant dès lors peu important de les expliquer de façon didactique.

Croyez-le bien : les géants du numérique GAFAMI* et BATX** en tête tendent tous vers l’AGI. C’est eux qui font avancer le monde à marche forcée vers une relation homme-machine sans précédent dans l’histoire de l’humanité. Car non seulement ils y ont intérêt mais parce qu’il en va de leur survie même. En témoigne la guerre froide mondiale qu’ils se mènent en matière d’IA, à commencer par l’enjeu majeur du positionnement de leur enceinte intelligente (Echo, Home, Homepod, etc…) dans les foyers du monde entier. Car soyez-en sûrs, la relation client du futur sera conversationnelle et grandement automatisée ou ne sera pas.

*Google Apple Facebook Amazon Microsoft IBM ** Baidu Ali Baba Tencent Xiaomi

Auteur : Alexandre BARILLET

Bloggeur influenceur sur l’IA (@alex_barillet – http://www.inprincipio.xyz ), conférencier, co-fondateur du laboratoire de recherche fondamentale en IA « In Principio », administrateur d’enseignes retail et Directeur Business Development au sein du groupe Carrefour.

Auteur d’un essai et ouvrage de vulgarisation sur l’IA à paraître à l’été 2019.

Publicités

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s