Surveillance : combattre le racisme de la reconnaissance faciale est-il un piège pour l’imposer ?

Comme toutes les technologies de surveillance biométriques, la reconnaissance faciale menace nos vies privées. Depuis peu, elle est surtout dénoncée pour ses biais racistes. En concentrant les critiques sur ses travers discriminatoires, ne risque-t-on pas d’entraîner son amélioration, et donc de la rendre incontournable ? Des organisations militent au contraire pour son interdiction pure et simple.

La fin de l’année 2020 a été marquée par une série d’alertes sur les travers de l’intelligence artificielle, notamment concernant la reconnaissance faciale. De plus en plus utilisée dans le domaine de la sécurité, cette technique permet d’identifier des personnes à partir de l’analyse des traits de leurs visages. Comme nous l’avons déjà évoqué ici, plusieurs études l’accuse de biais racistes et attestent, par exemple, qu’une femme noire a bien plus de risques d’être mal identifiée par ces dispositifs qu’un homme blanc.

Fin novembre 2020, le Comité de l’ONU pour l’élimination de la discrimination raciale s’est ainsi alarmée dans un rapport de l’usage de plus en plus fréquent de la reconnaissance faciale par la police. L’une des experts du comité, Verene Sheperd, déclarait à l’AFP :

“Il y a un grand danger à ce que l’intelligence artificielle ne reproduise, ne renforce les biais et n’aggrave ou conduise à des pratiques discriminatoires”

Peu après la publication de ce rapport des Nations Unies, c’est au niveau européen qu’une mise en garde a été lancée : pour l’Agence européenne des droits fondamentaux (FRA), les états européens devraient renforcer leur législation pour protéger les droits fondamentaux face à l’intelligence artificielle. Dans son rapport d’une centaine de pages, la FRA cite l’exemple de la Cour d’appel de Grande-Bretagne qui, en août 2020, a estimé que le programme de reconnaissance faciale utilisé par la police de Cardiff pouvait faire preuve de préjugés raciaux ou sexistes.

L’épouvantail américain

Aux Etats-Unis, au moins trois personnes ont été arrêtées à tort suite à une erreur d’identification des forces de l’ordre via logiciel de reconnaissance faciale. Ces trois individus se trouvent être des hommes afro-américains.

Dans un article publié fin décembre, le New York Times raconte l’histoire de Nijeer Parks. En février 2019, la police de Woodbridge, New Jersey, débarque dans un hôtel où des vols (de friandises) auraient été commis. Le suspect est un Afro-Américain qui reconnaît les faits, s’excuse et présente aux policiers un permis de conduire. Quand les officiers découvrent que son permis n’est pas en règle puis repèrent dans ses poches ce qui semble être du cannabis, le suspect s’enfuit au volant de sa voiture, manquant de renverser un policier au passage. Le lendemain, les autorités soumettent la photo du permis de conduire frauduleux aux logiciels de reconnaissance faciale pour tenter d’identifier le fugitif.

Le logiciel identifie Nijeer Parks, un habitant des environs âgé de 33 ans. Cet Afro-Américain nie les faits et ne se trouve guère ressemblant à la photo du permis de conduire (“La seule chose qu’on a en commun, c’est la barbe”, selon lui). Peu importe pour la police qui, compte tenu de quelques antécédents judiciaires, le place en détention durant dix jours.

Face au manque de preuves, les poursuites sont annulées en novembre 2019. De son côté, Parks obtient la confirmation via Western Union qu’au moment du vol dont on l’accusait à tort, il se trouvait à une cinquantaine de kilomètres des lieux. Selon le New York Times, Nijeer Parks, qui a dû payer quelques 5000 dollars en frais d’avocats pour se défendre, a entamé des poursuites contre la police, le procureur et la ville de Woodbridge pour arrestation et détention arbitraires, et violation de ses droits civiques. Durant la procédure, bien qu’innocent, Parks avait envisagé la possibilité de signer un accord avec le procureur qui aurait reconnu sa culpabilité : “J’en ai discuté avec ma famille, j’avais peur d’un procès, je savais que je risquais 10 années de prison en cas de défaite”

“Des résultats racistes et peu fiables

Le premier cas similaire référencé dans la presse, et déjà détaillé par la même journaliste spécialisée (Kashmir Hill) dans le New York Times, concernait une arrestation survenue en janvier 2020, pour des faits commis en octobre 2018 dans le Michigan. 

L’Union américaine pour les libertés civiles (ACLU) avait également documenté dans un reportage visible ci-dessous l’histoire en question : Robert Williams avait été arrêté à son domicile, devant sa femme et ses deux filles, choquées. Sur la foi d’une image de vidéo surveillance floue, Williams, 42 ans, était accusé d’avoir volé des montres dans un magasin où, selon lui, il n’avait pas mis les pieds depuis quatre ans. Placé en détention pendant 30 heures, il sera finalement libéré sous caution – “on dirait que l’ordinateur s’est trompé”, aurait-reconnu benoîtement un policier devant lui durant son interrogatoire, alors que Williams tenait contre son visage une photo du suspect pour pointer leur différence.

Dans le descriptif de la vidéo, l’ONG écrit :

“Robert n’est probablement pas la première personne arrêtée à tort ou interrogée sur la foi d’une mauvaise identification via reconnaissance faciale. Il y a probablement bien d’autres personnes comme Robert qui ignorent qu’une technologie défaillante leur a valu d’être considérées coupables aux yeux de la loi. Quand vous additionnez une technologie raciste et peu fiable à un système juridique raciste et peu fiable, vous obtenez des résultats racistes et peu fiables”.

L’affaire avait été médiatisée durant un été marqué par de nombreuses actions du mouvement antiraciste Black Lives Matter

Cette remise en cause de l’institution policière outre-Atlantique, durant une année électorale et dans la foulée de la mort d’un Afro-Américain (George Floyd) tué par des policiers au cours d’une interpellation, s’était accompagnée de diverses annonces de grandes entreprises américaines actives dans la champ de l’intelligence artificielle. En juin, Microsoft, IBM et Amazon avaient ainsi annoncé l’arrêt -ou la pause- de leurs solutions de reconnaissances faciales pour les forces de l’ordre face aux risques de discrimination encourus

L’antiracisme instrumentalisé

Un positionnement pour le moins “culotté”, selon la Quadrature du Net. Dans un communiqué publié le 22 juin 2020, l’association de défense des droits et des libertés sur Internet dénonce une certaine hypocrisie de ces grands acteurs industriels, accusés d’”instrumentaliser les combats antiracistes pour se refaire une image” :

“À travers ces déclarations, ces entreprises tentent d’orienter nos réponses à cette question classique qui se pose pour nombre de nouvelles technologies : la reconnaissance faciale est-elle mauvaise en soi ou est-elle seulement mal utilisée ? La réponse à cette question de la part d’entreprises qui font des bénéfices grâce à ces technologies est toujours la même : les outils ne seraient ni bons ni mauvais, c’est la façon dont on les utilise qui importerait. C’est ainsi qu’une annonce qui s’apparente à un rétropédalage sur le déploiement de la reconnaissance faciale est en réalité la validation de l’utilité de cette technologie. Une fois que l’État aura établi un cadre clair d’utilisation de la reconnaissance faciale, les entreprises auront le champ libre pour déployer leurs outils”

La Quadrature dénonce ainsi un tour de passe-passe: “le débat autour des biais algorithmiques concentre l’attention, alors que pendant ce temps les questions de respect des données personnelles sont passées sous silence”. Contacté par CTRLZ, le journaliste Olivier Tesquet, auteur du livre À la trace : Enquête sur les nouveaux territoires de la surveillance, abonde :

Il ne faut pas focaliser le discours critique sur la seule efficacité technique de la reconnaissance faciale, car cela dépolitise la question de fond, à savoir a-t-on besoin, en tant que société, de ce type de dispositif ?”

Deux approches de la technocritique

La différence d’approche entre les Etats-Unis et le vieux continent viendrait, selon le journaliste, du profil des militants impliqués sur ces questions :

“L’approche anglo-saxonne est plus pragmatique, surtout dans la communauté universitaire américaine. Certains chercheurs militent pour des algorithmes éthiques et, parmi eux, beaucoup ont travaillé pour l’industrie, par exemple chez Google. Ce sont des gens qui ont vu l’intérieur de la machine et qui s’en extirpent, alors que chez nous, le discours critique, beaucoup plus tranché, vient plutôt de la société civile, de gens extérieurs aux entreprises concernées”

Que la critique de la reconnaissance faciale soit conciliante ou radicale, encore faut-il qu’elle soit audible. En ces temps de crise sanitaire et économique, la protection des données personnelles ne semble pas être au cœur des priorités citoyennes. “On sent de vraies résistances”, tempère Tesquet, selon qui “le visage a un côté sanctuaire inviolable, qu’on ne traite pas comme d’autres données personnelles livrées aux plateformes”. Il reconnaît cela dit que “la généralisation d’outils présentés comme ludiques, comme les applications mobiles de vieillissement du visage, peut créer un phénomène d’accoutumance et affaiblir nos défenses immunitaires vis-à-vis des questions de surveillance”. D’autant que ces applications “permettent de constituer des bases de données sur lesquelles on entraîne des algorithmes dans une relative opacité”.

Plusieurs initiatives pour interdire la surveillance biométrique de masse ont été lancées fin 2020, à l’image de la campagne Reclaim Your Face.

Ce mouvement qui fédère plusieurs organisations au niveau continental mise sur l’initiative citoyenne européenne (ICE) qui, comme le rappelle Wikipedia, donne “un droit d’initiative politique à un rassemblement d’au moins un million de citoyens de l’Union européenne, venant d’au moins un quart des pays membres”. A en juger par le compteur visible sur le site, moins de 13000 signatures ont pour l’instant été récoltées.

UN BON LIEN : 

- Ce n’est pas parce qu’elle permet d’arrêter des néo-nazis que la reconnaissance faciale est une bonne technologie, à lire (en anglais) sur Slate.com, après les violents événements au Capitole de Washington, le 6 janvier 2021.
Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *