Le Sénat a adopté la semaine dernière en commission l'article 7 du projet de loi sur les JO. Celui-ci autorise les traitements algorithmiques, parfois plus pompeusement appelés intelligence artificielle, sur les images de vidéosurveillance. Si ce texte est voté définitivement, la France serait le premier pays européen à légaliser explicitement ce technosolutionnisme sécuritaire, à rebours même des discussions sur l'IA Act.
Alors que par le passé l'UE a pu être un moteur (bien qu'imparfait) de la protection des données personnelles, la France montrerait ici l'exemple du pire. Je discute ici l'absurdité technique de faire de la vidéosurveillance algorithmique (VSA) un outil efficace de sécurité, puis je discuterai ses conséquences liberticides et inégalitaires dans la seconde partie
1. la vidéosurveillance en général ne marche pas
2. la détection automatique de comportement de type terroriste ne marche pas et ne marchera jamais
3. les exemples de cas évoqués sont incomplets
4. les moyens mis dans cette fumisterie sont autant de moyens manquants pour d'autres moyens de sécurité
1. Même si cela heurte le bon sens de certains, la vidéosurveillance n'a pas fait ses preuves : les moments cruciaux sont souvent non filmés, ou la vidéo ne permet pas d'extraire d'information suffisante, ou elle n'est tout simplement pas exploitée. Grosso modo, quelque que soit les études, on trouve une efficacité dans 1% des enquêtes (3% dans les cas les plus favorables), si bien que même la Cour des comptes ou un rapport de la gendarmerie se désole du piètre résultat [1]. Même en prétendant qu'il suffit de poursuivre dans la fuite en avant technosolutionniste, le constat reste identique.
En recourant à la reconnaissance faciale, le résultat est douteux : dans un rapport de 2018 sur la police londonienne, parmi les 102 personnes arrêtées à la suite de signalement d'un logiciel de reconnaissance faciale, seules deux étaient réellement les personnes recherchées, les autres n'étaient que des faux positifs, c'est-à-dire qu'elles avaient été incorrectement identifiées par le logiciel. À noter qu'une des deux personnes identifiées avait été incluse dans la liste de personne recherchées par erreur... [2]
Le seul contrargument donné en commission par M. Thomas Rudigoz: « si nous n'avons pas d'études, nous avons des exemples où la vidéoprotection a été très utile. Je prendrai l'exemple de l'attentat de la rue Victor Hugo. L'auteur de l'attentat, on a pu l’appréhender grâce à la vidéoprotection. » Au-delà de clarifier la rigueur scientifique que l'on peut attendre d'une expérimentation dans un tel contexte, l'exemple est surprenant.Outre le fait que la vidéoprotection n'a pas réussi tout à fait tout seule, je vous laisse consulter la photo pixelisée pour l'appel à témoin et juger de son utilité [7].
2. On parle ici d'algorithme d'intelligence artificielle qui repose sur l'apprentissage statistique : à partir de nombreux exemples connus donnés à l'algorithmique, celui-ci adopte un paramétrage à même de catégoriser des nouvelles images. Pour reprendre l'exemple canonique, après avoir vu plein de chien et de chats, une IA peut dire si une nouvelle image représente un chien ou un chat. Il est beaucoup plus difficile d'apprendre lorsqu'on dispose de très peu d'exemples d'une des catégories.
Il n'y a "pas assez" de terrorisme pour avoir un apprentissage statistique de ce genre de comportement (pour donner un ordre de grandeur, pour apprendre à reconnaître les chiffres, le jeu de données standard MNIST comporte 60000 images... et le but est bien plus modeste). Même en admettant un bon apprentissage malgré cette énorme difficulté technique, il y aura toujours de nombreux faux positifs : si la probabilité d'une classification incorrecte est uniquement de 1%, mais qu'il n'y a qu'un terroriste sur un million d'individus, alors une personne classifiée terroriste a 99% de chances d'être en fait innocente : c'est une conséquence directe de la loi de Bayes.
Autrement dit, pour tout évènement très rare, une tentative de détection systématique ne peut se faire qu'au prix de très nombreuses fausses alertes. C'est donc soit un surcroît de travail pour la police, soit celle-ci choisit d'ignorer les alertes du logiciel.
3. Les utilisations précises ne font pas parties de la loi mais seront établies par décret. Cependant, la commission des lois a mentionnée trois grands axes. Le premier est celui des mouvements de foule, avec l'exemple récent du Stade de France. Qu'un algorithme soit capable d'identifier un densité de population élevée dans une zone filmée semble raisonnable.
Lors de la finale de la ligue des Champions, les policiers ont identifié qu'il y avait un mouvement de foule même sans VSA. Par contre, si l'aménagement adéquat des lieux et la présence de personnels formés peut résoudre la gestion des flux, personne n'a pris la peine d'expliquer à quoi servait la VSA, à part pour une détection dont l'automatisation est peu nécessaire. La caméra reste dans son petit boîtier (ou dans son drone, certes), elle n'aide pas à disperser la foule. Évidemment, aucune étude non plus sur son efficacité n'a été fournie. Le deuxième axe est celui des bagages abandonnés.
À nouveau, que la VSA puisse détecter l'apparition d'objets n'est pas aberrant, même si un camouflage du bagage exploitant les failles des méthodes d'apprentissage automatiques n'est pas à exclure : en utilisant certains motifs, il est possible de faire "disparaître" un objet pour un réseau de neurones ou de le faire reconnaître comme étant quelque chose d'autre [8]. Le bagage abandonné doit être également visible sur le flux vidéo de la caméra et non caché. Quand bien même le bagage est détecté, certains députés semblent croire que ça résout le problème des bagages abandonnés. Détection ne signifie pourtant pas élucidation : que le bagage oublié soit repéré manuellement ou par la VSA, le niveau de savoir est ensuite exactement le même. La VSA ne va pas nous dire par magie quel est le contenu du sac ! La plus-value semble donc à nouveau bien mince.
Enfin, la dernière catégorie est celle des comportements suspects : qu'est-ce qu'un mauvais comportement dans l'espace public ? Les comportements réellement dangereux sont rares, donc amèneront de très nombreux faux positifs. On en revient donc à choisir des comportements suspects douteux et arbitraires, comme courir alors que les autres marchent, rester trop de secondes au même endroit, une démarche inhabituelles. Rien de très concret ni ayant des liens prouvés avec la sécurité : l'algorithme apprend à reconnaître ce que les développeurs, cette classe de personnes hautement réputés pour leurs connaissance approfondie des comportements humains, trouvent anormal.
4. le coût de la vidéosurveillance peut difficilement être compris sans y voir un moyen de détournement d'argent public. Mangeant par exemple plus de la moitié du fond interministériel de prévention de la délinquance, les solutions de vidéosurveillance ont une certaines tendance au surcoût systématique, et leur coût varie étrangement très fortement d'une ville à l'autre au gré de l'enveloppe disponible. Dans le cadre de Paris, l'estimation actuelle (avant les surcoûts) du coût de la vidéosurveillance classique est de plus de 130 millions d'euros entre 2021 et les JO.
À titre de comparaison, la ville de Paris dépense 170 millions d'euros par an de masse salariale pour la sécurité [5]. On pourrait aussi mentionner le coût écologique de ces technologies. Mais la volonté même de commencer à chiffrer ce gâchis écologique par un amendement de Madame Lisa Belluco a été rejeté.
Finalement, la VSA est une illusion, et c'est sans doute la fonctionnalité Synopsis de Briefcam qui l'illustre le mieux : les concepteurs promettent de résumer une heure de vidéo en une minute, en ne gardant que les passages intéressants. Une sorte de binge-watching de la réalité, qui donne l'illusion de tout savoir tout parce qu'on aurait tout vu. Le fait que ce savoir est le résultat d'une grille unique, qu'il ne permet de voir que ce que l'on souhaite regarder et qu'il ne signifie en rien mobiliser cette connaissance au service des personnes filmées est passé sous le silence.
[1] Cour des comptes, 2011, L’organisation et la gestion des forces de sécurité publique, Rapport public thématique, Paris, Cour des comptes.https://www.ccomptes.fr/sites/default/files/EzPublish/Rapport_public_thematique-securite_publique.pdf
[2] The lawless growth of facial recognition in UK policing, Big Brother Watch, 2018 https://bigbrotherwatch.org.uk/wp-content/uploads/2018/05/Face-Off-final-digital-1.pdf
[3] https://www.technologyreview.com/2020/07/17/1005396/predictive-policing-algorithms-racist-dismantled-machine-learning-bias-criminal-justice/
[4] https://www.europarl.europa.eu/stoa/en/document/EPRS_STU(2019)624261
[5] https://cdn.paris.fr/paris/2022/07/18/91c13670573d55e6296cf13db8b5eb43.pdf
[6] https://www.ladn.eu/nouveaux-usages/liran-utiliserait-la-reconnaissance-faciale-pour-identifier-les-femmes-sans-hijab/
[7] https://www.lexpress.fr/societe/explosion-a-lyon-ce-que-l-on-sait-du-suspect-actuellement-recherche_2080153.html
[8] https://arxiv.org/abs/1610.08401
[9] https://www.lemonde.fr/idees/article/2023/03/06/les-mesures-de-videosurveillance-algorithmique-introduites-par-la-loi-jo-2024-sont-contraires-au-droit-international_6164276_3232.html
[10] https://theintercept.com/2020/01/27/surveillance-cctv-smart-camera-networks/
[11] https://www.france.tv/slash/invisibles/3302449-invisibles-les-travailleurs-du-clic-version-longue-2022.html