Automate-autonome : traçable, transparent, fidèle à la loi… tu seras !

Laurence Devillers est professeure d’Intelligence artificielle à la Sorbonne, chercheuse au LIMSI-CNRS/Paris-Saclay, membre du CERNA d’Allistène, et auteur de « Des robots et des hommes : mythes, fantasmes et réalité », Plon Mars 2017.

Parmi tous les moteurs de la croissance économique, une notion revient en boucle : l’intelligence artificielle. Et pour cause : de la reconnaissance vocale avec Google Now à la victoire de Google DeepMind au jeu de Go en passant par les systèmes de conversation intelligents comme Alexa d’Amazon, l’IA, couplée à sa sous-discipline le « deep learning », ne cesse de faire avancer les champs d’application de l’automatisation.

Signe le plus mesurable de cette dynamique : la multiplication du nombre de nouvelles entreprises positionnées sur ce secteur. En 2016, ce sont plus de 1600 startups spécialisées en intelligence artificielle qui ont été recensées dans le monde selon CB Insights. Quant aux « big five » de la tech, elles cumulent les rachats de ces dernières pépites de l’IA avec depuis 2012 une trentaine de start-up en poche, rappelle le site Statista.com. Et les entreprises entrent à présent elles aussi dans la course. Aujourd’hui, les applications de l’IA sont utilisées dans presque toutes les industries et l’on estime à plus de 36 milliards de dollars le chiffre d’affaires généré d’ici à 2025 sur la base de cette technologie, selon Tractica.

Conjointement à ces perspectives d’application prometteuses, un débat scientifique et une vision nouvelle de l’informatique émergent, au sein desquels les frontières entre IA et cybernétique se brouillent avec le développement de réseaux neuronaux artificiels de traitement de l’information. Cela pose de façon plus pressante la question d’une éthique de nos systèmes.

De plus en plus autonomes et complexes, nos automates sont aussi des sujets d’anxiété pour nos emplois autant que pour notre perception de nous-mêmes. En soi le sujet n’est pas nouveau : Norbert Weiner, père de la cybernétique, était conscient de l’aspect « pharmakon » de ces machines, entre « poison » et « remède ». Pour autant, à l’image de l’affirmation de Sophia, le robot-humanoïde d’Hanson Robotics exposée lors du salon mondial « AI for Good » à Genève, l’IA est bonne pour le l’humanité, à condition d’édicter des règles!

Pour en savoir plus sur l’avenir de l’intelligence artificielle et de la robotique, HOW est allé à la rencontre de Laurence Devillers, Professeur en Intelligence Artificielle et Informatique à l’Université Paris-Sorbonne, Chercheur au LIMSI-CNRS, membre de la CERNA-Allistène. Entretien.

Hello Open World : Pourriez-vous nous donner une définition du « deep learning » ?

Laurence Devillers : L’apprentissage profond (« deep learning ») est un ensemble de méthodes d’apprentissage automatique appliquées à des architectures de réseaux de neurones artificiels, autrement dit des représentations informatiques inspirées du fonctionnement des neurones biologiques. Ce sont les travaux du mathématicien Walter Pitts et du neurologue Warren McCulloch qui ont permis ce parallèle entre le cerveau et la machine (« neurone formel »). De différents types, ces réseaux automates peuvent être par exemple récurrents ou convolutifs pour la reconnaissance d’image ou de parole.

Autre caractéristique : ils représentent une multiplicité de connexions et s’organisent en plusieurs couches. Une couche peut comporter des milliers de neurones, et donc des millions de paramètres. Entre la couche d’entrée et la couche de sortie, le réseau peut comporter plusieurs dizaines de couches dites cachées. La phase d’apprentissage détermine les valeurs des poids synaptiques à partir d’un échantillon de données de très grande taille (jusqu’à plusieurs millions), et ce sont ces multi-couches qui caractérisent les techniques de l’apprentissage profond. Ces systèmes apprennent sans comprendre et il faut garder en tête qu’ils sont des boîtes noires incapables d’expliquer leurs choix.

HOW : Pouvez-vous revenir sur les différents champs d’applications et expérimentations actuelles concernant le deep learning ?

L.D : Les succès du deep learning s’appuient sur l’accroissement des capacités de calcul, de stockage et de traitement des données. Ses applications sont multiples : moteurs de recherche, reconnaissance d’images et de parole, traduction automatique, agents conversationnels.

Au sein de mon équipe « Dimensions affectives et sociales dans les interactions parlées » au LIMSI-CNRS, nous utilisons par exemple ces données pour la reconnaissance des émotions dans les interactions homme-robot. Avec 20% des foyers américains qui ont déjà adopté l’agent conversationnel Alexa (Amazon), développer des chatbots doués d’empathie et d’humour nous semble être un chantier essentiel, notamment pour faire de ces objets des assistants de vie.

Les acteurs comme Google et Facebook s’intéressent quant à eux à de nouvelles interfaces de communication directe entre cerveau et ordinateur, appelées BCI (« brain computer interface »). Ces systèmes peuvent être conçus pour assister, améliorer ou réparer des fonctions humaines de cognition ou d’action défaillantes, au croisement de l’IA et de l’AI (Augmented Intelligence).

Dans ce cas, plus besoin de parler pour que la machine comprenne nos intentions : des approches de « deep learning » utilisées dans des réseaux classifient les intentions de l’utilisateur à partir de données d’électroencéphalographie (EEG) en temps réel.

Par exemple, un joueur peut contrôler son personnage dans un jeu vidéo dans le défi Cybathlon 2016. Cette compétition permet à des athlètes tétraplégiques de piloter, par la pensée, leur avatar lors de courses virtuelles sous la forme de jeux vidéo.

Ces outils sont extrêmement utiles lorsqu’il s’agit de handicap mais peuvent s’avérer très peu éthiques lorsque il s’agit d’augmenter les capacités d’humains non handicapés.

HOW : Pour parler des enjeux éthiques de l’apprentissage machine présents dans de nombreux systèmes d’IA, vous parlez de la règle des 4D et des 4E. Pouvez-vous nous expliquer de quoi il s’agit ?

L.D : Dans mon ouvrage « Des Robots et des Hommes: mythes, fantasmes et réalité », (Plon, mars 2017), j’explique les enjeux éthiques de la robotique sociale qui embarquent de nombreux systèmes de « deep learning » pour percevoir, raisonner et agir.

Ces robots sociaux, capables d’interactions affectives et empathiques avec les humains, amènent à réfléchir à des règles éthiques sur l’attachement et l’intimité avec les machines, tout particulièrement pour des personnes vulnérables telles que les personnes âgées, ou les enfants. En effet pour ces tâches, le robot est vu comme un compagnon, loin des automates imagés traditionnellement pour l’industrie.

Là où la robotique industrielle regroupe des applications que l’on définit par les 4D : « Dangerous, Dull, Dirty and Dumb », qui portent sur des travaux dangereux, ennuyeux, sales et stupides, la robotique sociale, personnelle et de service, doit porter sur des applications articulée autour de 4E, pour « Everyday, E-Heath, Education, Entertainment». L’intelligence artificielle et la robotique sont ainsi enjointes à développer une vision sociale, voire parfois anthropologique de son histoire. Les robots seront présents pour nous accompagner au quotidien, pour surveiller notre santé, pour nous aider et veiller à notre bien-être.

Cette co-évolution humain-machine, dans laquelle la machine s’adaptera à l’humain et l’humain à la machine, pose des questions éthiques : comment surveiller l’interaction avec ces systèmes, gérer les connaissances apprises, respecter l’intimité de la personne ? Faut-il prévoir une réglementation juridique ?

HOW : Quelles sont les recherches au niveau européen pour définir une éthique de la conception des systèmes autonomes ?

L.D : L’interaction affective et sociale des humains avec les machines révèle plusieurs points d’interrogations qui s’ajoutent aux questions générales de respect de la vie privée et de protection contre des actes malveillants, notamment sur l’étude du comportement  à long terme. Si les robots apprennent seuls comme des enfants, il est souhaitable de les programmer avec des valeurs morales, des règles de vie en société et de contrôler leur apprentissage. Les robots seront à terme dotés d’une autonomie de décision croissante, et la confiance que l’on peut placer dans un robot, ainsi que les possibilités et les limites de celui-ci et du couple qu’il forme avec l’utilisateur, sont autant de challenges à prendre en compte dès maintenant.

Les préconisations publiées dans le rapport de la CERNA sur l’éthique du chercheur en robotique portent ainsi sur 3 thèmes : l’imitation du vivant et l’interaction affective et sociale avec les humains, l’autonomie et les capacités décisionnelles et enfin la réparation et l’augmentation de l’homme par la machine.

C’est notamment dans cette perspective que la plus importante association professionnelle internationale du numérique, l’Institute of Electrical and Electronics Engineers, a initié l’IEEE Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems, dont l’enjeu est de produire des rapports sur l’Ethically Aligned Design (deux pré-rapports sont disponibles sur le site IEEE). De premiers principes ont été posés comme le fait qu’une IA ou qu’un système autonome (AS) devraient être construits et utilisés dans le respect des droits de l’homme, des libertés, de la dignité humaine et de la diversité culturelle. C’est d’ailleurs là tout l’enjeu par exemple de la lutte contre les biais algorithmiques. En découle un autre principe : toute IA ou AS doit être vérifiable tout au long de sa durée de vie opérationnelle.

Enfin, si un dommage est causé par ces automates-autonomes, il doit toujours être possible de remonter jusqu’à la cause (enjeu de traçabilité) et d’en préciser les faits (enjeu de transparence). A cet égard on a déjà vu des professions évoluer dans ce sens, comme le journalisme qui tend aux Etats-Unis notamment vers le « reporting reponsable de nos algorithmes » pour éviter de potentielles discriminations.

 

Image par Gustavo A. Casañ (Travail personnel) [CC BY-SA 4.0], via Wikimedia Commons

A lire aussi

La communauté des leaders de l'innovation

Innovating in good company

Rejoignez-nous