L'article 24 de la loi de sécurité globale est peut-être l'article le plus commenté de ces dernières semaines. On y parle entre autres du floutage d'agents de police dans l'exercice de leurs fonctions. Sans débattre sur les tenants et les aboutissants d'un tel article, on préfère ici prendre la question sous un angle plus original, celui du progrès scientifique. Nos législateurs et parlementaires ont sûrement réfléchi avec sérieux et sous les conseils avisés d'experts du champ des possibles techniques pour construire une telle mesure. Et pourtant, étonnamment, la capacité des algorithmes à déflouter une image n'a a priori pas été abordée… Serait-ce une triste nouvelle pour l'article 24 ?
Les algorithmes de défloutage sont utilisés initialement pour améliorer la qualité d'une photo en éliminant le bruit qui lui donne cet aspect flou. Dans cet effort, ces premiers algorithmes utilisent des filtres qui sont des opérations mathématiques explicitement appliquées sur l'image qui est décrite sous forme de signal. Parmi eux, on pense par exemple au filtre de Wiener du mathématicien américain du même nom. Les progrès dans le développement de ces algorithmes jouent un rôle fondamental dans le débruitage des images médicales telles que celles provenant d'IRM ou de tomographie.
Lire aussi « Loi sécurité globale » : quand Castaner recadre Darmanin
Dans un tout autre registre, de nombreuses équipes s'intéressent à déflouter des visages brumeux sur une photo dus à une mauvaise résolution de l'image qui donne cet aspect fortement pixélisé. On imagine bien les applications dans une affaire judiciaire, par exemple pour identifier un individu sur une vidéo provenant d'une caméra de surveillance. Sans discuter des dérives de ces captations massives de nos visages, il est intéressant de souligner les derniers progrès et donc les contradictions paradoxalement portées par l'article 24. En effet, en parallèle d'algorithmes explicites comme les filtres, des algorithmes d'apprentissage débruitent implicitement les images.
Un outil capable de reconstruire un visage type à partir d'une image floue ?
Ces algorithmes sont entraînés sur un ensemble de photos de visages d'individus floutés avec leur correspondant débruité, afin de construire une sorte de bibliothèque implicite d'individus types. Dans cette idée, une équipe de l'université américaine de Duke en Caroline du Nord a construit un outil capable de reconstruire un visage type à partir d'une image à (très) faible résolution. On parle bien de visage type et non du vrai visage de la personne concrètement présente sur la photo. Écrit autrement, cet algorithme reproduit le visage qui se rapproche le plus de la personne à identifier. L'outil est prometteur mais son efficacité dépend fortement de l'échantillon d'entraînement de photos. C'est ainsi que les scientifiques ont malheureusement remarqué une discrimination technologique envers les personnes noires, en reconstruisant dans la grande majorité des cas un visage flouté noir en visage type blanc. Cela étant dit, on peut tout à fait imaginer une amélioration future de ces algorithmes par la construction d'une base de données gigantesque par la captation massive (controversée) de nos visages aux quatre coins des rues, dans les aéroports ou plus généralement dans les lieux publics.
Ce n'est peut-être pas sous une vision déformée des libertés démocratiques mais bien sous un manque d'anticipation scientifique et technologique que notre gouvernement pense les lois. Peu importe notre opinion sur l'article 24, c'est l'articulation de sa construction qui inquiète…