En 2014, les spécialistes en apprentissage machine d’Amazon ont commencé à développer une intelligence artificielle (IA) capable de dénicher les meilleurs CV parmi tous ceux envoyés à l’entreprise pour postuler à des postes techniques, de développeurs notamment. Un an plus tard, ils ont découvert que leur outil «n’aimait pas les femmes»,comme l’a écrit en octobre dernier l’agence Reuters, qui a révélé l’histoire. Pourquoi ? Parce que ledit outil avait été nourri des données de recrutement des dix dernières années, et que la grande majorité des candidats, et des embauchés, étaient des hommes. «Dans les faits,explique Reuters, le système d’Amazon a appris seul que les candidatures masculines étaient préférables.» Et a pénalisé les CV contenant le mot «femme». L’entreprise a fini par abandonner le projet.

L’épisode est symptomatique du problème, de plus en plus documenté, de la reproduction des stéréotypes ou des discriminations par les algorithmes en général et l’IA en particulier. «A chaque étape de leur développement, les algorithmes récupèrent nos préjugés», résument, dans leur tout récent ouvrage l’Intelligence artificielle, pas sans elles !(Belin, 2019), les chercheuses en biologie Aude Bernheim et Flora Vincent, cofondatrices de l’association Wax Science. De la définition des objectifs d’un algorithme jusqu’à son optimisation (le rendre le plus performant possible), les biais, sexistes ou racistes, peuvent se nicher partout. Dans le cas des algorithmes dits d’«apprentissage profond», ou deep learning, le problème vient bien souvent des gigantesques bases de données avec lesquelles ils sont entraînés. Qu’on les nourrisse d’images montrant plus souvent des femmes que des hommes en cuisine, et ils auront tendance, en cas de doute sur le genre d’une personne dans une nouvelle image, à y voir une femme. Pour Bernheim, qui participe samedi à la table ronde l’Intelligence artificielle est-elle sexiste ? à la Gaîté lyrique à Paris, dans le cadre de l’exposition «Computer Grrrls» dont Libération est partenaire, le problème est d’autant plus criant que certaines bases de données sont très populaires : dès lors, «les biais sexistes se propagent à vitesse grand V». La solution ? Des «corpus d’apprentissage» égalitaires : «Si on corrige en amont ces grandes bases de données utilisées par beaucoup de monde, les gens développeront des algorithmes équitables sans même s’en rendre compte.»

Autres pistes : mettre en place des normes d’équité et des solutions techniques pour auditer les algorithmes, intégrer la question de leurs impacts sociaux dans les cursus scientifiques et diversifier les équipes, donc les points de vue. Car le secteur reste très masculin : «En 1984 aux Etats-Unis, 37 % des diplômés en informatique étaient des femmes,relève Bernheim. On est aujourd’hui entre 10 % et 15 %.» Sans compter que, selon le Centre national pour les femmes et les technologies de l’information (NCWIT) américain, la proportion de femmes qui quittent le secteur en cours de carrière est deux fois supérieure à celle observée pour les hommes.

«Les processus de décision biaisés sont loin d’être spécifiques à l’intelligence artificielle, mais […] la portée croissante de l’IA rend le traitement du problème particulièrement important», écrivaient en juillet dernier James Zou et Londa Schiebinger, professeurs à la Stanford University, dans la revue internationale Nature. A tout le moins, la prise de conscience est là. Y compris - ne serait-ce que pour des questions d’image - chez les géants du numérique : en juin 2018, IBM a ainsi mis à disposition du public un corpus de 36 000 images annotées destinées à l’entraînement des algorithmes de reconnaissance faciale, avec une répartition égalitaire en termes de genre, d’âge et de couleur de peau.

Auditionné au Sénat en janvier 2017, Serge Abiteboul, directeur de recherche à l’Institut national de recherche en informatique et en automatique (Inria), se montrait optimiste : «Les algorithmes peuvent apporter plus d’équité et de transparence que les humains, à la condition toutefois de consentir des efforts de vigilance.» Des efforts qui doivent venir «de l’Etat et de la réglementation, des associations d’internautes et de la technique».

L’IA au cœur de l’Humain (spécial sciences)
en vente sur la boutique Libé

Et le premier tome, Voyage au cœur de l’IA, à acheter ici 

 

Amaelle Guiton