Accusés à tort par un algorithme :
En février 2019, Nijeer Parks a été accusé d’avoir volé des bonbons à l’étalage et d’avoir tenté de heurter un policier avec une voiture à Woodbridge, dans le New Jersey. La police l’avait identifié à l’aide d’un logiciel de reconnaissance faciale. Parks a passé 10 jours en prison et a payé environ 5.000 $ pour se défendre. En novembre 2019, l’affaire a été classée pour manque de preuves. Parks, 33 ans, poursuit maintenant la police, le procureur et la ville de Woodbridge pour arrestation et emprisonnement abusifs et violation de ses droits civils : il était à 50 km du lieu de l’incident au moment de celui-ci. Il est la troisième personne connue pour avoir été arrêtée sur la base d’une erreur des dispositifs de reconnaissance faciale. Dans les trois cas, les personnes identifiées par erreur par la technologie étaient des hommes noirs.
Un jeudi après-midi de janvier, Robert Julian-Borchak Williams était dans son bureau dans une entreprise de fournitures automobiles lorsqu'il a reçu un appel du département de police de Detroit lui disant de se rendre au poste pour être arrêté. Il a d'abord pensé qu'il s'agissait d'une blague. Une heure plus tard, lorsqu'il est arrivé dans son allée dans un quartier calme de Farmington Hills, Michigan, une voiture de police s'est arrêtée derrière lui, le bloquant. Deux policiers sont sortis et ont menotté M. Williams sur sa pelouse de devant, devant sa femme et ses deux jeunes filles, qui étaient désemparées. La police n'a pas voulu dire pourquoi il était arrêté, mais lui a seulement montré un morceau de papier avec sa photo et les mots « mandat d'arrêt pour délit » et « vol ». Sa femme, Melissa, a demandé où il était emmené. « Cherchez sur Google », lui a répondu un des agents. La police a conduit M. Williams dans un centre de détention. Il a été photographié, ses empreintes digitales et son ADN ont été prélevés, et il a été détenu jusqu'au lendemain. Vers midi le vendredi, deux inspecteurs l'ont emmené dans une salle d'interrogatoire et ont posé trois morceaux de papier sur la table, face cachée.« Quand êtes-vous allé dans un magasin Shinola pour la dernière fois ? » a demandé l'un des inspecteurs, selon les souvenirs de M. Williams. Shinola est une boutique haut de gamme qui vend des montres, des vélos et des articles en cuir dans le quartier branché de Midtown, à Detroit. M. Williams a déclaré que lui et sa femme avaient visité le magasin lors de son ouverture en 2014.L'inspecteur a retourné le premier papier. Il s'agissait d'une image fixe tirée d'une vidéo de surveillance, montrant un homme corpulent, vêtu de noir et portant une casquette rouge des St. Louis Cardinals, debout devant un étalage de montres. Cinq montres, d'une valeur de 3 800 $, ont été volées à l'étalage. « C'est vous ? », a demandé l'inspecteur. Le deuxième morceau de papier était un gros plan. La photo était floue, mais il est clair que ce n'était pas M. Williams. Il a pris l'image et l'a tenue à côté de son visage.« Non, ce n'est pas moi », a dit M. Williams. « Vous pensez que tous les hommes noirs se ressemblent ? » M. Williams savait qu'il n'avait pas commis le délit en question. Ce qu'il ne pouvait pas savoir, alors qu'il était assis dans la salle d'interrogatoire, c'est que son cas pourrait être la première histoire connue d'un USAméricain arrêté à tort sur la base d'une correspondance erronée d'un algorithme de reconnaissance faciale, selon les experts en technologie et en droit.
Un système défaillant
Un débat national fait rage sur le racisme dans les forces de l'ordre. Dans tout le pays, des millions de personnes protestent non seulement contre les actions de certains agents, mais aussi contre les préjugés des systèmes utilisés pour surveiller les communautés et identifier les personnes à poursuivre. Les systèmes de reconnaissance faciale sont utilisés par les forces de police depuis plus de deux décennies. Des études récentes du M.I.T. et du National Institute of Standards and Technology, ou NIST, ont révélé que si la technologie fonctionne relativement bien sur les hommes blancs, les résultats sont moins précis pour d'autres groupes démographiques, en partie à cause du manque de diversité des images utilisées pour élaborer les bases de données sous-jacentes. L'année dernière, lors d'une audition publique sur l'utilisation de la reconnaissance faciale à Detroit, un chef de police adjoint a fait partie de ceux qui ont exprimé leurs inquiétudes. « Sur la question des faux positifs - c'est absolument factuel, et c'est bien documenté », a déclaré James White. « Cela me concerne donc en tant qu'homme afro-américain. »Ce mois-ci, Amazon, Microsoft et IBM ont annoncé qu'ils arrêteraient ou mettraient en pause leurs offres de reconnaissance faciale pour les forces de l'ordre. Les gestes étaient largement symboliques, étant donné que les entreprises ne sont pas de grands acteurs de l'industrie. La technologie que les services de police utilisent est fournie par des sociétés qui ne sont pas des noms connus, comme Vigilant Solutions, Cognitec, NEC, Rank One Computing et Clearview AI.Clare Garvie, avocate au Center on Privacy and Technology de l'université de Georgetown, a écrit sur les problèmes liés à l'utilisation de la reconnaissance faciale par le gouvernement. Elle soutient que les images de recherche de faible qualité - comme une image fixe provenant d'une vidéo de surveillance granuleuse - devraient être interdites, et que les systèmes actuellement utilisés devraient être testés rigoureusement pour en vérifier l'exactitude et la partialité.« Il y a des algorithmes médiocres et il y en a de bons, et les forces de l'ordre ne devraient acheter que les bons », a déclaré Mme Garvie. À propos de l'expérience de M. Williams dans le Michigan, elle a ajouté : « Je soupçonne fortement que ce n'est pas la première fois qu'on identifie mal quelqu'un pour l'arrêter pour un crime qu'il n'a pas commis. C'est juste la première fois que nous en avons connaissance ».
Lire la suite
Kashmir Hill
Traduit par Fausto Giudice