• Xavier Niel se met en scène en Président, dans une vidéo humoritique. Iliad

    L'opérateur de Xavier Niel ajoute des données à son forfait et lance un jeu concours pour célébrer sa première décennie d'existence.

     

    Il y a tout juste dix ans, Free créait une petite révolution dans le monde de la téléphonie mobile en lançant son offre : un forfait à 19,99 euros et un autre à 2 euros. Une décennie plus tard, le trublion des télécoms s'est un peu assagi, mais continue d'agiter le marché avec ses offres commerciales...et son humour décalé. Dans une vidéo postée sur Twitter, Xavier Niel se met en scène dans le rôle d'un président «pas normal, sans Rolex, ni fille cachée. Je ne vous trouverai pas un travail juste en traversant la rue, mais quand je fais une promesse je la tiens. (...) Je vous promets à nouveau de ne pas augmenter le prix des forfaits (...). Liberté. Égalité. Prix inchangés...» Sérieux comme un Pape, en veste et cravate, Xavier Niel tient un discours présidentiel d'une minute trente, jusqu'à la petite phrase finale : «communiquer sans vous niquer» (sic).

     
     

    Pour fêter les dix bougies de Free Mobile, Xavier Niel augmente l'enveloppe de données disponibles dans son forfait à 19,99 euros par mois, pour le passer à 210 Go par mois en 5G, automatiquement. L'opération se fait sans surcoût pour les abonnés Free et pour les nouveaux abonnés. Cette pratique est à contre-courant de ce que font ses concurrents, qui associent l'augmentation du volume de données disponibles en mobilité à une hausse de 2 à 5 euros par mois du prix du forfait.

    L'opérateur lance aussi une promotion à destination des nouveaux abonnés, pour une semaine. Du 10 au 18 janvier, la série Free avec 100 Go de données (+ 10 Go de roaming) est à 10,90 euros par mois pendant 1 an (puis Forfait Free 5G à 19,99euros). À cela s'ajoutent des promotions sur le prix de certains smartphones et un jeu-concours sur les réseaux sociaux du 10 au 14 janvier avec 10 smartphones 5G à gagner.

    En dix ans d'existence, Free Mobile a conquis 13,5 millions de clients. Mais après des débuts en fanfare, l'opérateur plafonne. Pour relancer la machine, il mise à la fois sur les valeurs qui ont fait son succès (la simplicité de son offre et des prix attractifs) et sur son réseau. À ses débuts, il dépendait essentiellement du réseau d'Orange. Il dispose désormais de 21.600 antennes.

     


  •  
    « Les résultats de la recherche Google ne sont pas simplement en corrélation avec notre société raciste, sexiste et colonialiste ; la recherche Google renforce ces situations d’oppression en classant les résultats en fonction du nombre d’autres sites qui y sont liés. » C’est le propos de « Data Feminism », de Catherine D’Ignazio et Lauren Klein. © Getty Images
      « Les résultats de la recherche Google ne sont pas simplement en corrélation avec notre société raciste, sexiste et colonialiste ; la recherche Google renforce ces situations d’oppression en classant les résultats en fonction du nombre d’autres sites qui y sont liés. »  C’est le propos de « Data Feminism », de Catherine D’Ignazio et Lauren Klein. © Getty Images
     

    Discrimination et données algorithmiques : quand big data devient big cata

    Samedi 8 Janvier 2022

    Ils trient des CV, suggèrent des livres à nos goûts, filtrent l’information, décident si la banque nous accorde un prêt, recherchent des terroristes potentiels…  Mais d’où viennent les données sur lesquelles reposent ces algorithmes ? Qui les sélectionne ? Quels en sont les biais, et au profit de qui ? Décryptage

     

    La sociologue Safiya Umoja Noble a tenté une simple expérience. En tapant successivement dans Google Images « trois adolescents blancs », puis « noirs » et enfin « asiatiques », les résultats sont radicalement différents. La première proposition montre de jeunes gens souriants, en train de faire du sport ou de sociabiliser, la deuxième propose de jeunes Afro-Américains en prison ou dont la pose évoque la délinquance, quant à la troisième, elle nous plonge directement dans le monde de la pornographie. C’était en 2016, et elle voulait montrer, avec son livre « Algorithms of Oppression », à quel point les outils numériques que nous utilisons au quotidien sont bourrés de préjugés racistes et les renforcent.

    Sous couvert de méthode scientifique

    On ne peut pas réduire un tel raté à un « biais » qu’on pourrait corriger en mettant le nez dans les algorithmes, même si c’est ainsi que Google a tenté de rectifier le tir. Sous couvert de méthode scientifique, l’analyse des données se veut neutre, un moyen d’objectiver le réel, mais elle est plutôt le fruit d’une histoire, d’un contexte.

    Un algorithme ne devient pas raciste à cause d’un problème technique, mais d’un rapport de forces. C’est tout le propos de « Data Feminism » – un ouvrage de Catherine D’Ignazio, laquelle se décrit comme une « maman hackeuse », et Lauren Klein, développeuse et passionnée d’histoire de l’informatique – paru au MIT.

    Les autrices précisent : « Les résultats de la recherche Google ne sont pas simplement en corrélation avec notre société raciste, sexiste et colonialiste ; la recherche Google renforce ces situations d’oppression en classant les résultats en fonction du nombre d’autres sites qui y sont liés. »

    Serena Williams et la statistique de la mortalité en couche

    « Ce qui est compté est ce qui compte. » Cette affirmation de la géographe féministe Joni Seager est une invitation à s’interroger sur la donnée. Ce qui est arrivé à la championne de tennis Serena Williams est éclairant à ce propos. Elle a failli mourir lors de son accouchement en 2017. À la sortie de l’hôpital, elle évoque son épreuve sur les réseaux sociaux, soulignant l’injustice que, sans sa célébrité et son argent qui lui ont valu les meilleurs soins, elle ne serait sûrement plus là.

    La sportive a reçu en réponse de très nombreux témoignages de femmes noires qui ont vécu des drames similaires. Interpellée, Serena Williams se renseigne et trouve une statistique du centre pour le contrôle et la prévention des maladies (CDC) : les femmes noires meurent trois fois plus en couches que les Blanches aux États-Unis. La presse s’en mêle.

    Acculé, le chef de la branche santé ­maternelle et infantile du CDC, William Callaghan, répond embarrassé : « Ce que nous choisissons de mesurer est un énoncé de ce que nous valorisons en matière de santé. » Autrement dit, l’institution ne sait pas pourquoi les femmes noires meurent trois fois plus, car, comme elle estime le phénomène pas assez important, elle n’a même pas pris la peine de le consigner, le mesurer.

    Un logiciel d’analyse faciale testé par la chercheuse Joy Buolamwini reconnaît les hommes blancs dans 99 % des cas, contre 92 % pour les femmes blanches, 88 % pour les hommes noirs et 65 % pour les femmes noires. © Tony Long/NYT/Redux/REA

    Un logiciel d’analyse faciale testé par la chercheuse Joy Buolamwini reconnaît les hommes blancs dans 99 % des cas, contre 92 % pour les femmes blanches, 88 % pour les hommes noirs et 65 % pour les femmes noires. © Tony Luong/NYT/Redux/Rea

    Ces problèmes sociaux urgents mais qui n’existent pas

    « Tout comme la présence de données profite toujours à quelqu’un, à un pouvoir, chaque absence a aussi un sens. C’est très important à garder à l’esprit », assure l’artiste Mimi Onuoha pour expliquer son projet : The Library of Missing Datasets (la bibliothèque des ensembles de données manquants).

    Dans un grand classeur métallique, elle consigne des dossiers vides, étiquetés de problèmes sociaux urgents mais qui n’existent pas, puisque le pouvoir n’en a pas collecté les données : « Personnes exclues des logements sociaux en raison d’un casier judiciaire » ; « Mobilité pour les personnes âgées ayant un handicap physique ou des troubles cognitifs » ; « Statistiques de la pauvreté incluant les personnes en prison » ; « Combien de mosquées sont sous surveillance » ; « les personnes trans blessées ou tuées dans des crimes haineux »…

    Les résultats ne sont pas simplement en corrélation avec notre société raciste, sexiste et colonialiste ; ils renforcent ces situations d’oppression.

    Historiquement, compter a toujours été utilisé par le pouvoir pour dominer et exclure. « La relation étroite entre les données et le pouvoir est clairement visible dans l’arc historique, qui commence par les journaux de bord des personnes capturées et placées à bord des navires négriers, réduisant les vies à des nombres et des noms, rappellent Catherine D’Ignazio et Lauren Klein.

    Cela continue par le mouvement eugéniste, à la fin du XIXe et au début du XXe siècle, qui cherchait à utiliser des données pour quantifier la supériorité des Blancs sur tous les autres. Elle se poursuit aujourd’hui dans la prolifération des technologies biométriques. »

    L'outil biaisé des juges américains

    Vu le poids de l’histoire, on ne peut être surpris que les algorithmes qui se fondent sur ces données entretiennent et amplifient les discriminations. Par exemple, les juges états-uniens disposent d’un outil informatique qui leur indique un niveau de risque de récidive de détenus demandant une ­libération anticipée.

    En mettant le nez dans l’algorithme, une équipe de ProPublica a montré que, du seul fait de leur couleur de peau, les accusés noirs étaient 77 % plus susceptibles que les Blancs de parvenir à un score de récidive violente élevé.

    Autre exemple, en 2018, il a été révélé qu’Amazon avait développé un algorithme pour filtrer les CV des postulants à un emploi dans le groupe. Mais, parce que le modèle se ­fondait sur les précédents candidats recrutés, principalement masculins, il a développé une préférence encore plus marquée pour les hommes. Pour gagner du temps, l’algorithme avait même déclassé les universités où les femmes étaient majoritaires.

    Des mains de personnes noires non reconnues par certains sèche-mains

    Parfois, l’algorithme discrimine sans s’en rendre compte. Ainsi, Joy Buolamwini, une étudiante ghanéenne-américaine au MIT, travaillait sur un projet de classe utilisant un logiciel d’analyse faciale. Sauf que le programme n’arrivait pas à « distinguer » son visage à la peau foncée. Problème qui fut réglé lorsqu’elle a porté un masque blanc.

    En se demandant pourquoi, Buolamwini a découvert que l’ensemble de données sur lequel de nombreux algorithmes de reconnaissance faciale sont testés contient 78 % de visages masculins et 84 % de visages blancs, mais seulement 4 % de visages de femmes et à la peau foncée.

    Ce n’est clairement pas représentatif de la population globale, mais cela l’est de qui travaille dans le secteur. 26 % des personnes exerçant des « professions informatiques et mathématiques » sont des femmes aux États-Unis, 27 % en France. Un rapport du groupe de recherche AI NOW note que les femmes ne représentent que 15 % du personnel de ­recherche en intelligence artificielle de Facebook et 10 % de celui de Google.

    C’est pour ces mêmes raisons que des mains de personnes noires ne sont pas reconnues par certains sèche-mains automatiques, ou que le programme de validation des photos d’identité en Nouvelle-Zélande refuse des portraits d’Asiatiques sous prétexte qu’ils auraient les yeux fermés. On pourrait multiplier sans fin les anecdotes de ce type.

    Un féminisme des données

    Après l’analyse du pouvoir, il convient de le défier et, pour cela, le féminisme des données propose une méthode. Cela implique avant tout la colibération, à savoir « que les systèmes de pouvoir oppressifs nous nuisent à tous, qu’ils sapent la qualité et la validité de notre travail, et qu’ils nous empêchent de créer un changement social véritable et durable avec science des données », explicitent Catherine D’Ignazio et Lauren Klein. Pas tant « libérer les ­données » que « libérer les gens » et créer une « technologie de rassemblement ».

    Chaque projet de données doit être pensé avec une infrastructure sociale, une « culture de la solidarité » et implique un transfert de connaissances. Chaque jeu de données doit « embrasser le pluralisme », être incarné et accompagné d’une ­méthodologie et surtout d’un contexte – les chiffres ne parlent pas d’eux-mêmes –, et des systèmes de classifications constamment interrogés. Parmi les exemples de bonne pratique, il y a WomanStats. « Si vous voulez faire des recherches sur les femmes, vous devez adopter des données qualitatives. Car la réalité de la vie des femmes n’est tout simplement pas capturée dans les statistiques quantitatives », pointe ainsi sa créatrice, Valerie M. ­Hudson­. Au lieu de se concentrer sur une seule ­variable, le projet ne comprend pas moins de 300 indicateurs sur 174 pays. Si l’on se questionne sur le viol, le site pointe pour chaque territoire les données des violences signalées – les utilisateurs sont avertis qu’il s’agit d’un indicateur très peu fiable –, si les lois y sont appliquées, relate des expériences vécues, la culture et les tabous locaux, etc.

    « WomanStats montre comment le contexte peut également inclure une analyse du pouvoir et des inégalités sociales », insistent Catherine D’Ignazio et Lauren Klein. « Le contexte et l’infrastructure d’information qu’il requiert devraient être à l’avenir une priorité pour les défenseurs des données ouvertes, les bibliothécaires, les chercheurs, les agences de presse et les régulateurs. Nos vies axées sur les données en dépendent », concluent-elles. Sans ce travail, « la plus grande menace des systèmes d’intelligence artificielle n’est pas qu’ils deviendront plus intelligents que les humains, mais plutôt qu’ils coderont en dur le sexisme, le racisme et d’autres formes de discrimination dans l’infrastructure numérique de notre société », alerte de son côté la sociologue Kate Crawford.

    Le risque du "Big Dick Data". L’ouverture massive des données publiques part bien sûr d’un bon principe, mais les autrices de « Data Feminism » soulignent que ce mouvement s’est accompagné d’une tare qu’elles désignent avec génie par « Big Dick Data ». « Un terme académique formel que nous, les autrices, avons inventé pour désigner les projets de méga-données caractérisés par des fantasmes patriarcaux (…) Les projets Big Dick Data ignorent le contexte, fétichisent la taille et gonflent leurs capacités techniques et scientifiques », expliquent avec ironie Catherine D’Ignazio et Lauren Klein. Une quête de journaliste ou d’expert, qui serait typiquement masculine, du plus gros chiffre ou de la courbe la plus ascendante, à exhiber sur les plateaux télé.





    Suivre le flux RSS des articles de cette rubrique