Yseop : l’IA et l’ingénierie linguistique au service de la business intelligence et de la transformation digitale

Traducteur universel, voitures autonomes, assistants virtuels… L’intelligence artificielle est partout et bien ancrée dans notre quotidien. Derrière ce mot qui revient comme un leitmotiv se cache un ensemble de sous-domaines, dont la littérature ne manque pas. Elle va du machine learning à la robotique en passant par la NLP (Natural Language Processing), le web sémantique ou encore la représentation des connaissances. Et si les débats autour de l’intelligence artificielle dans sa dimension pharmacologique naissent au début du 20ème siècle avec les Lois de la robotique d’Asimov, venant ainsi questionner notre coexistence avec les machines, certaines de ses disciplines – moins mises sous les feux de la rampe – transforment et facilitent le monde du travail de façon positive, à commencer par la NLP. C’est toute l’approche prometteuse d’Yseop qui s’appuie sur l’ingénierie linguistique pour transformer la façon dont les entreprises se connectent à leurs clients et accompagnent leurs collaborateurs. Pour en savoir plus, nous sommes allés à la rencontre d’Alain Kaeser, co-fondateur et Chief Science Officer chez Yseop.

 

 

Quelle est la genèse d’Yseop ? 

Tout d’abord j’ai commencé ma carrière en tant que chercheur en intelligence artificielle dans les systèmes experts. Rapidement j’ai été confronté au syndrome de la « boîte noire », décrivant cette situation de rejet lorsque l’on met une machine intelligente face à un être humain. Une attitude encore vraie aujourd’hui : soit l’être humain craint de se faire prendre son travail par la machine, soit il s’interroge sur leur légitimité à nous donner des conseils. C’est de ce double constat qu’est née l’idée de faire parler la machine afin qu’elle soit capable de communiquer auprès d’un être humain en y mettant de la pédagogie et de l’argumentation sur le raisonnement qui a été mis en œuvre.

Yseop s’inscrit dans une approche « coaching » de la relation machine-homme. Pour ce faire, nous avons ajouté un composant : la production de texte en langage naturel – autrement dit l’outil écrit et va pouvoir être utilisé dans des cas d’usages très variés pour l’aide à la décision.

Dans la grande famille de l’intelligence artificielle, sur quelle sous-discipline misez-vous ?

L’IA est un mot « buzz » qui sème beaucoup de confusion, parfois entretenue par les éditeurs. Derrière ce syntagme, ce sont plusieurs technologies complémentaires qui ont toutes pour point commun de travailler pour offrir plus d’autonomie aux machines tendant vers le mythe d’une IA complète, et plus concrètement d’automatiser un ensemble de tâches humaines.

Cependant les moyens pour y arriver peuvent être très différents : la robotique, le machine learning – très en vogue en ce moment[1], les réseaux neuronaux sur lesquels s’appuient historiquement le deep learning, les moteurs de règles, la reconnaissance d’images et de formes, ou encore le traitement automatique de langage naturel avec la NLG (production de texte automatique) et la NLU (compréhension de texte automatique). Chez Yseop nous nous concentrons sur la NLG et le raisonnement intelligent avec les moteurs de règles qui incarnent toutes ces approches technologiques que je viens de citer.

Elles viennent matérialiser le fait que ces disciplines sont en fait regroupées dans deux grandes catégories : d’un côté l’intelligence artificielle qui repose sur des bases statistiques et probabilistes, comme le machine learning et les réseaux neuronaux. L’IA y travaille sur de gros volumes de données pour essayer de détecter de façon automatique des comportements et des règles intelligentes. On l’applique dans les cas de figure où l’on ne relève pas de savoir-faire et où l’on ne peut pas s’appuyer sur de l’expérience. Ces approches probabilistes vont ainsi essayer d’ « inventer » le savoir-faire.

De l’autre côté, et à l’inverse, nous trouvons un champ de disciplines catégorisé à partir d’approches déterministes. Dans ce cas on ne se repose pas sur des probabilités mais sur quelque chose de plus certain, où l’on vient s’appuyer sur les compétences humaines. Cette dernière catégorisation revient à ce que nous proposons chez Yseop en matière d’IA.

Ces deux approches sont très complémentaires : l’approche déterministe se fonde sur de l’intelligence artificielle explicite et fiable et permet ainsi de rassurer les entreprises lorsqu’elles sont confrontées, par exemple, à des problématiques de conformité, à l’instar du secteur financier. En revanche, cette dernière impose de modéliser un savoir en l’empruntant à des humains, et si ce savoir n’existe pas, alors les approches probabilistes ont cette fois-ci tout leur intérêt.

IA et sciences du langage : pouvez-vous revenir sur l’importance de ce duo ?

La NLG vise à mettre en oeuvre des problématiques de modélisation de processus métiers et de savoir-faire de l’entreprise, autrement dit la recherche en ingénierie des connaissances.

Mais pour communiquer, il faut aussi mobiliser les approches linguistiques. La linguistique s’est appuyée très tôt sur les connaissances formelles du langage. Il y a toute une mathématique développée sur ce sujet, liée à la linguistique formelle.

Des chercheurs travaillent encore aujourd’hui sur des représentations de langage naturel, assez abstraites. Chez Yseop nous faisons le pont entre ces approches théoriques et l’approche pratique nécessaire pour les entreprises afin qu’elles puissent manipuler ces concepts et faire parler les machines.

Avec Yseop, vous avez la capacité à contextualiser les données et à mettre en œuvre des raisonnements complexes, permettant ainsi une génération de texte « sophistiqué »,proche du langage naturel et des conversations humaines.

 

Ne tentez-vous pas vous aussi quelque part de réussir, voire de dépasser, le test de Turing ?

On ne prétend pas pour l’instant « tromper » dans un vrai dialogue et un vrai raisonnement. Dans le dialogue, il est assez simple de piéger la machine.

En revanche, si vous produisez un document de reporting ou un commentaire de match généré par des logiciels NLG et que vous le soumettez à un être humain, il ne saura pas que c’est une machine.

Le test de Turing, c’est une dimension encore plus complexe, puisqu’il y a un vrai dialogue. Nous n’avons pas encore inventé l’IA forte, autonome, consciente de ses choix et capable d’inventer des savoir-faire. Et même aujourd’hui dans les discours que l’on peut tenir dans le domaine du machine learning, la machine est extrêmement guidée par les experts humains qui viennent faire ce que l’on appelle de l’apprentissage supervisé pour aider la machine à apprendre !

Quels sont les secteurs et les industries sur lesquels se positionne Yseop ?

Nous avons à la base identifié deux types d’usages : d’une part, tout ce qui relève du reporting et la mise à disposition d’un ensemble de dashboards graphiques orientés indicateurs clés de performance pour la business intelligence. Il s’agit là du dernier kilomètre de la BI visant à ajouter des commentaires associés aux graphiques.

D’autre part, l’autre grande catégorie d’usages concerne la relation client. Nous venons ici couvrir l’ensemble des canaux – forces de ventes et web – pour faciliter la cohérence et l’efficience de l’ensemble du parcours client.

Dans le cadre d’une communication directe, via un chatbot ou un questionnaire intelligent, nous venons répondre aux questions de l’internaute en matière de service à la clientèle mais aussi lui proposer des produits, des conseils et services personnalisés sur son espace personnel. Nous optimisons ainsi par exemple l’interaction des agents commerciaux avec les clients, en aidant le commercial dans la préparation de son rendez-vous. Les outils d’aide à la décision permettent de pointer les opportunités commerciales, de cartographier les bonnes questions pour collecter davantage de données clients.

Quelle est votre vision relative au futur de la relation homme-machine face aux craintes d’un âge mis sous le signe de l’automatisation ? L’un de vos concurrents, Kristian Hammond pour Narrative Science, expliquait dans la presse outre-Atlantique que « les ordinateurs gagneraient un prix Pulitzer d’ici 5 ans et que 90% des journalistes seraient remplacés par les ordinateurs d’ici 2030« .

La mention du prix Pulitzer correspond certainement de la part de Kristian Hammond à une volonté de faire plaisir ou peur aux journalistes concernant leur champ de compétence. Personnellement, je pense que l’on est encore loin du prix Pulitzer tout simplement parce que la partie production d’article n’est que le dernier maillon de la chaine. Derrière le prix Pulitzer, il y a la notion d’enquête, or nous sommes encore loin d’une machine autonome capable d’aller enquêter sur place et jouer le rôle de journaliste.

En revanche, le fait qu’une partie du travail journalistique puisse être automatisé est désormais de l’ordre du réel, pour les brèves automatiques par exemple, avec à l’arrivée un nouveau type de journalisme découlant de cette relation homme-machine, du data-journalisme et du fact-checking des données à l’œuvre par exemple dans les paris sportifs algorithmiques.

A lire aussi

La communauté des leaders de l'innovation

Innovating in good company

Rejoignez-nous