« Les algorithmes ne sont pas plus sexistes que la société actuelle »

L’intelligence artificielle et les algorithmes sont omniprésents. D’une recommandation Netflix à une publicité Youtube en passant par le recrutement, ils participent à nos vies sans que nous en soyons toujours très conscients. Chercheuses en biologie à l’Inserm et à l’institut des sciences de Weizmann, Aude Bernheim et Flora Vincent ont publié un ouvrage, L’Intelligence Artificielle, pas sans elles, qui alerte sur l’importance des biais dans l’intelligence artificielle et explore des pistes pour y remédier.

En 2013 vous avez fondé l’association Wax Science, qui lutte pour une science plus inclusive. Qu’est-ce qui a motivé votre démarche ?

Flora Vincent : Aude et moi étions en Master 2 au centre de recherches interdisciplinaires (CRI) qui forment des étudiants et des étudiantes aux sciences du vivant. L’établissement nous encourageait beaucoup à participer et créer des clubs. Nous avons rejoint Draw Me Why, une association qui réalisait de courtes vidéos pour répondre à des questions comme pourquoi le ciel est bleu, par exemple.  Peu de temps après, la Commission européenne a lancé un concours. Il fallait réaliser une vidéo pour promouvoir les sciences auprès des jeunes filles.

En réalité, la Commission européenne avait réalisé une vidéo hyper stéréotypée qui laissait sous-entendre que les femmes qui se lançaient dans la science, le faisaient uniquement dans la cosmétologie. Nous avons réalisé une vidéo en essayant d’être innovante et décalée. Nous avons remporté le prix coup de coeur du Jury. On a eu le droit à un papier dans Le Monde, l’Oréal nous a contactées pour nous féliciter. Nous avons décidé de créer une association indépendante dans le cadre de notre Master et, au fur et à mesure, elle a grandi.

Aude Bernheim : Nous n’avons jamais été confrontées à un manque de mixité. Nous avons étudié dans une prépa bio et ensuite en filière agro, il y avait environ 60% de femmes. Ce n’est pas donc une discrimination qui nous a motivées. Au contraire, nous avions envie que d’autres jeunes filles puissent travailler dans des conditions aussi favorables que les nôtres.

Vous avez écrit un livre sur les biais dans l’intelligence artificielle. Pourquoi avoir choisi cette thématique ?

F.V. : Dans le cadre de l’association, nous avons réalisé de nombreuses choses : des interventions dans les lycées, des expositions et nous avons aussi travaillé sur des problématiques liées au sexisme dans la science. On s’est aperçu qu’il y avait des biais partout, dans la santé par exemple. On note que les médicaments ont des effets secondaires plus néfastes sur les femmes ou que les symptômes de crise cardiaque sont moins bien connus chez les femmes. Nous avons rencontré des membres du laboratoire de Vitalité qui publie des livres sur l’égalité hommes-femmes. Il n’y en avait pas sur les sciences alors nous nous sommes invités dans leur ligne éditoriale. Nous avons choisi l’IA car c’était un sujet montant à l’époque et surtout qu’elle a un rôle important dans de nombreux domaines.

Quels biais et risques ont déjà été identifiés ?

F.V. : Un des exemples les plus parlant est celui détecté par Joy Buolamwini, une étudiante au MIT qui a découvert que, de manière général, les logiciels de reconnaissance faciale sont beaucoup plus efficaces pour reconnaître les hommes blancs que les personnes de couleur. Cela est dû au manque de représentativité des données utilisées pour entraîner les algorithmes. Celles-ci contenaient une surreprésentation d’hommes blancs et peu de femmes noires.

On retrouve aussi des cas plus graves comme celui de Compas, un algorithme d’aide à la prise de décision qui est censé prédire, pour certains juges américains, si un prisonnier risque de récidiver ou non. Une société a alerté sur le fait que les algorithmes se trompaient beaucoup plus sur les personnes noires que sur les blancs, ce qui est assez discriminant. Mais c’est très compliqué parce qu’on ne sait pas si le problème vient vraiment des algorithmes. Nous en sommes encore au début, il y a encore beaucoup de grilles d’analyse à faire.

Dans le domaine du recrutement aussi on trouve des biais importanst : à compétences égales, certains algorithmes proposent des postes moins bien payés aux femmes, certains algorithmes permettent de retirer les candidatures féminines…

A.B. : La société a été très sexiste et très raciste et comme les algorithmes apprennent sur des données passées datant de plusieurs années – les nouvelles ne suffisant pas – ils sont forcément biaisés eux aussi. Ils sont les héritiers de notre histoire : ils ne sont pas plus sexistes que la société actuelle ne l’est.

Quelles solutions peuvent être mises en place pour supprimer ces biais ?

F.V. : Avant de coder sans biais, il faut faire prendre conscience aux gens qu’il y a des biais. C’est pour cette raison qu’il est essentiel de sensibiliser dans les écoles de code et les entreprises qui utilisent des codes comme les banques – pour allouer des crédits – ou une école d’ingénieur – pour recruter. Il est essentiel de réaliser des formations sur ce sujet pour sensibiliser, notamment dans les établissements. On peut aussi imaginer des sortes de labels qui garantiraient un code non biaisé. Cela commence d’ailleurs à émerger aux États-Unis. Il faut aussi vérifier la base, c’est-à-dire les données pour s’assurer qu’elles soient assez représentatives des populations concernées.

Il y a encore tout un volet de recherches à faire sur le sujet. Il n’existe pas qu’une seule solution pour faire une IA responsable. Les algorithmes sont différents et ils disposent chacun de leurs problèmes. Il faut trouver une solution pour chacun d’entre eux. Ce sont des difficultés compliquées à résoudre.

Dans votre ouvrage, vous parlez de propagation des biais. De quoi s’agit-il ?

F.V. : Un biais peut être corrigé en tant quel tel, c’est assez facile dans un code. Mais le problème de la propagation touche GitHub qui est une immense base de données remplies de stéréotypes. Elle a demandé un important travail pour être créée. De nombreux développeurs utilisent cette base et donc, risquent de répéter ces biais. Si on arrive à corriger cette base de données, on aura une influence immense car on affectera tous les codes qui se basent dessus. Ensuite ça peut être très simple d’encoder une IA sans biais. Pour un chasseur de tête, il suffit de préciser qu’il faut autant de CV d’hommes que de femmes ou 100 femmes au minimum…

Est-ce qu’il faut mettre en place un garde-fou dans chaque entreprise pour vérifier ces biais ?

A.B. : Je ne pense pas qu’il faille créer de nouvelles structures pour régler un problème. Il faut traiter l’IA comme n’importe quel produit. La responsabilité ne repose pas uniquement sur les entreprises mais aussi sur les clients, les utilisateurs. L’entreprise doit évidemment faire mieux mais on ne sait pas comment la personne va l’utiliser non plus. En ce sens, les labels peuvent être une bonne pratique.

Une instance régulatrice, à plus haut niveau, serait également inutile. Les algorithmes sont partout, il serait impossible de tous les vérifier. En revanche, les laboratoires de recherches peuvent prendre le problème à bras le corps.

Google vient de limoger deux chercheuses en éthique. Qu’est-ce que cela vous inspire ? 

F.V. : C’était hyper violent mais ce qui me choque le plus c’est qu’avant, Google avait peur pour sa réputation. Maintenant, plus du tout. Et ils ont raison. Même si je suis choquée, je ne vais pas fermer mon compte Gmail.

A.B. : C’est un signal extrêmement fort. Certaines entreprises ne font rien, n’investissent pas dans l’IA. Là, c’est une menace claire.

Leave a Reply

Your email address will not be published. Required fields are marked *