Microsoft en a assez que son IA reconnaisse mal les femmes et personnes de couleur

10 juillet 2018

Microsoft s’attaque enfin aux biais raciaux et sexistes de sa reconnaissance faciale en diversifiant sa base de données.

Vous vous rappelez de Tay, l’IA de Microsoft qui était devenue raciste en moins de 24 heures ? Microsoft oui ! Depuis, l’entreprise a décidé d’en finir avec les intelligences artificielles intolérantes et malveillantes. Une grande ambition…

En 2016, Microsoft avait fait parler d’elle en mettant en ligne un bot conversationnel pour Twitter. Capable d’apprendre de ses interactions avec les internautes et d’adapter son langage aux habitudes et éléments qu’il repérait dans les conversations, Tay a vite pris les défauts des twittos. Au bout d’une journée, il s’était mis à poster des tweets racistes et fascistes pour finir par être supprimé par Microsoft. Cet échec n’a pas découragé le géant américain. Depuis, il est devenu un acteur incontournable de l’intelligence artificielle, notamment grâce à Face API, un service de reconnaissance faciale, utilisé par un nombre grandissant d’entreprises. Il faut dire que ce créneau de l’IA se développe à une vitesse folle. Du paiement en magasin à l’ouverture d’un compte bancaire en ligne, en passant par l’appréhension des criminels, la reconnaissance faciale trouve de nombreuses applications. Mais elle reste encore imparfaite.

Une étude du Massachusetts Institute of Technology (MIT) a récemment prouvé que Face API reconnaît mieux les hommes blancs que la gent féminine et les personnes de couleur. Mise à l’essai par le MIT, 93,6 % de ses erreurs impliquaient en effet l’identification de personnes de couleur. De telles disparités sont problématiques. Elles contribuent à creuser des inégalités sociales en réduisant l’accès de services développés grâce à l’IA à des minorités déjà discriminées.

On est bien loin de l’intelligence artificielle éthique que souhaite Satya Nadella, PDG de l’entreprise. Microsoft a donc décidé de prendre les choses en main en travaillant à l’amélioration de la base de données que Face API utilise pour apprendre. Si Microsoft fournit à l’algorithme moins d’images de femmes et personnes de couleurs à analyser, il est normal qu’il soit incapable de les identifier correctement.  


Lire aussi : IA : Microsoft lance un fonds de 25M de dollars pour aider les personnes handicapées

L’équipe en charge de la reconnaissance faciale chez Microsoft a donc révisé sa collecte de données en se focalisant davantage sur la couleur de peau, le genre et l’âge. Elle a ensuite amélioré la classification de ces données pour produire des résultats plus précis.

Microsoft n’est pas la seule entreprise à souhaiter corriger le sexisme et racisme inhérents aux IA. IBM, elle aussi épinglée par le MIT pour sa reconnaissance faciale biaisée, compte entraîner sa technologie à reconnaître un million d’images représentant des visages appartenant à des personnes non-blanches et/ou non-masculines.

Mais, comme le rappelle la chercheuse de Microsoft Hanna Wallach, il ne faut pas se leurrer, ouvrir les bases de données à la diversité n’est qu’une solution à court terme. Les algorithmes sont entraînés pour imiter nos sociétés, si celles-ci sont biaisées, les systèmes d’intelligence artificielle qui les reproduisent le seront également.

« C’est l’occasion de réfléchir aux valeurs que nous renvoyons dans nos systèmes, et s’il s’agit là des valeurs que nous voulons réellement transmettre », affirme Hanna Wallach. Apparemment, l’entreprise dirigée par Satya Nadella a fait son choix.

En rendant sa technologie plus équitable, Microsoft va permettre à tous les outils développés par ses clients de mieux représenter la diversité de leurs utilisateurs et utilisatrices.

La rédaction HOW

par L'ADN

Linkedin

A lire aussi

La communauté des leaders de l'innovation

Innovating in good company

Rejoignez-nous