Audrey Gautier

Abonné·e de Mediapart

4 Billets

0 Édition

Billet de blog 14 mars 2023

Audrey Gautier

Abonné·e de Mediapart

La VSA, ce bras d'honneur à la présomption d'innocence (2/2)

La sécurité, même restreinte à la protection contre les "autres", ne passe pas par la vidéosurveillance algorithmique (VSA). Tout traitement considérant l'ensemble des citoyens comme des suspects du simple fait de leur présence dans l'espace public doit être appelé par son nom : la surveillance de masse. Si elle est inefficace pour protéger, elle l'est en revanche pour attaquer nos libertés. (2/2)

Audrey Gautier

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

La France est sur le point d'être le premier européen a explicitement autoriser l'usage d'intelligence artificielle sur le flux vidéo des caméras de vidéosurveillance, sous prétexte de souveraineté et d'exemplarité pour les Jeux Olympiques. Après avoir montré dans la première partie le ridicule de présenter la vidéosurveillance algorithmique (VSA) comme un outil de protection, je donne quelque pistes sur son caractère inégalitaire et liberticide.

1. C'est intimider notre liberté de circulation
2. C'est renforcer les préjugés éventuels de la police
3. C'est un outil excellent contre tout rassemblement politique
4. C'est rendre les logiciels de reconnaissance faciale prêts au déploiement
5. C'est préparer la possibilité d'une smart city exploitant les émotions et vulnérabilités de chacun.

1. Il n'y a pas besoin d'avoir quelque chose à cacher pour cacher quelque chose. Ce n'est pas une étrange lubie qui a fait reconnaitre le droit à la vie privée de la déclaration universelle des droits de l'Homme au règlement général de protection des données (RGPD). Quand bien même la surveillance ne serait pas dirigée contre les "bons citoyens", ce sont pourtant eux qui sont filmés et analysés, transformés en suspects. Tout pourra être retenu contre vous, même l'acte le plus banal. Pour les populations déjà marginalisées, c'est une raison de plus de fuir l'espace public. Ces risques ont été décrits par de nombreuses associations [9].

2. La VSA est un terrain fertile pour l'amplification des préjugés humains : si l'algorithme apprend par l'exemple quelle personne se font contrôler par les policiers, il est prône à non seulement adopter des biais racistes, mais même à les accentuer significativement. Ce n'est peut-être qu'une aide à la décision dans la bouche de juristes, en pratique c'est un policier à qui une boite noire magique qui a "appris" sur des milliers et milliers d'heures de vidéos dit : tu devrais cibler telle personne. Comment espérer que la personne s'affranchisse de l'oracle ? C'est assurément un bras d'honneur métaphorique à la présomption d'innocence. Il a été montré que les utilisateurs de logiciels d'aide à la décision ont tendance à se reposer bien plus qu'ils sont censés le faire sur ces logiciels [4]. Comment les policiers pourraient-ils détecter et corriger ces biais, lorsque les spécialistes d'IA ont toujours du mal à quantifier et résoudre les problèmes des biais, et que l'explicabilité des réseaux de neurones continue d'être à un stade embryonnaire en recherche ?

3. On salue sur ce point la clarté du refus d'exclure les manifestations politiques de l'utilisation de la VSA. On parle bien donc explicitement d'un système qui pourra être utilisé dans sa version actuelle pour traquer l'intégralité des manifestants. C'est n'est même pas une dérive, c'est le coeur de l'esprit de la loi. Même si on n'utilise pas la reconnaissance faciale on peut demain suivre le manifestant jusqu'au retour à son domicile, ce n'est pas une donnée biométrique. Les plus petits rassemblements, par exemple des personnes en train de tracter peuvent être détectées de façon automatique et par hasard être détectés comme suspects. On peut aussi très simplement traquer si une personne brandit une feuille blanche. Ou si une femme porte un voile ou non : il semblerait que, combiné à la reconnaissance faciale, cette technique ait été récemment utilisée en Iran pour arrêter ensuite des femmes qui n'avaient pourtant pas rencontré de policiers [6].

4. Nous avons eu le droit à la tentative d'inclure la captation sonore (oui, c'est bien le mot technique pour dire écouter et potentiellement retranscrire tout ce qui se dit dans la rue), mais on continue soi-disant à respecter la liberté car on n'active pas la reconnaissance faciale, trop connotée. C'est une "protection" très limitée, similaire à la soi-disant protection obtenue par l'anonymisation des données : si l'humain a l'habitude de réfléchie en termes de nom et de visage pour identifier un individu, les traitements algorithmiques peuvent reposer sur d'autres caractéristiques uniques, que ce soit un numéro de sécurité sociale pour les données textuelles, ou une démarche pour des données vidéo. Tout au plus la reconnaissance faciale n'est que l'outil de VSA le plus pratique pour croiser les données avec d'autres bases de données existantes. Derrière, que ce soit la reconnaissance faciale ou non, on parle des mêmes difficultés techniques, et donc des mêmes entreprises et des mêmes logiciels. Par exemple, Briefcam, mentionné plusieurs fois dans les débat a tout simplement une option pour l'activer [10]. À partir de là, une fois le logiciel bien installé et le personnel formé, qui osera prétendre qu'à la première attaque terroriste on se retiendra de recourir à la reconnaissance faciale pour retrouver le terroriste au plus vite ? Puis on la laissera juste pour détecter les criminels vraiment très dangereux. Puis les un peu dangereux quand même. Puis les délinquants. Puis les victimes. Puis on aura fiché un peu tout le monde, et on scannera tout le monde tout le temps.

5. Le traçage sur Internet a très clairement pour utilité majeure l'optimisation d'intérêts économiques : mettre la bonne publicité au bon endroit au bon moment. On commence à connaître les effets délétères de cette personnalisation. Nous y vivons chacun dans une bulle qui nous enferme dans une vision du monde particulière et excessivement stéréotypée : nous sommes orientés algorithmiquement vers la culture, les métiers et biens de consommations de notre sexe, notre classe sociale, de toutes nos caractéristiques et névroses. Jour après jours, ces choix qui nous sont imposés façonnent notre expérience en ligne. Malheureusement pour les annonceurs, ce contrôle reste pour l'instant virtuel, restraint aux données que nous cédons avec notre "consentement" (en cliquant sur accepter les cookies notamment). Imaginons maintenant que l'espace public soit un nouveau terrain de collections de données individualisées. Le contrôle des personnes devient bien plus précis et constant, il ne peut plus s'interrompre par la déconnexion des réseaux sociaux : être citoyen, c'est-à-dire être membre de la cité, devient être producteur de données. On peut alors dans un premier temps catégoriser, et c'est ce que nos députés voient aujourd'hui, les très marginaux : les sans-abris, les voleurs, les agresseurs. Et c'est déjà une politique de l'exclusion. Mais pourquoi s'arrêter là ? On peut optimiser le traffic routier en décidant qui a la priorité sur qui, on peut décider qui à la droit à l'éclairage public, quelle limitation de vitesse imposer en fonction des antécédents du conducteur, on peut prédire qui va rendre son logement bientôt, quoi afficher sur le panneau d'information publique, et quoi mettre sur le panneau publicitaire en fonction des émotions détectées par la caméra (la reconnaissance d'émotions est belle et bien déjà incluse dans les logiciels [10]). Qu'aucune fuite de notre déterminisme social ne soit permise, même physiquement. 


Certains répondent enfin que c'est un enjeu de souveraineté. C'est saugrenu de parler de souveraineté sur une pratique non éthique. La France doit-elle faire de la recherche en méthodes de tortures ou de développement d'armes chimiques pour la cause absolue de la souveraineté ? Toujours est-il qu'il s'agit, même dans l'optique d'être souverain en VSA, une bien étrange façon de procéder. Rien ne prévoit que les logiciels soit français, et les amendements demandant un développement étatique se sont fait rejetés. Par ailleurs, pourquoi est-il nécessaire de déployer sur la population française la VSA pour promouvoir les entreprises françaises quand celles-ci réussissent déjà très bien à s'exporter ? 

Il faut collecter nos propres jeux de données nous répond-t-on. Savez-vous ce qui fait la difficulté pour obtenir un bon jeu d'entrainement ? Ce n'est pas les images brutes, c'est leur annotation, c'est-à-dire ce procédé manuel où un travailleur regarde des images et donne la "bonne" réponse à l'algorithme. Comment cela est fait ici ? Par exemple par des fonctionnaires de police financés par l'État au bénéfice d'entreprises privés ? Ou on sous-traite à du personnel non formé à l'étranger, qui pourront par exemple en toute bonne foi annoter deux personnes d'un même sexe se tenant la main ou une femme à la jupe trop courte comme comportement suspect, tout en finissant avec un syndrome post-traumatique à cause des scènes vues toutes la journée [11] ? Mais je m'égare, ce genre de détail technique n'est bien sûr pas discuté. La VSA, c'est une boîte noire magique pour notre bien commun, et si vous n'avez rien à cacher, vous n'avez rien à craindre.

[1] Cour des comptes, 2011, L’organisation et la gestion des forces de sécurité publique, Rapport public thématique, Paris, Cour des comptes.https://www.ccomptes.fr/sites/default/files/EzPublish/Rapport_public_thematique-securite_publique.pdf
[2] The lawless growth of facial recognition in UK policing, Big Brother Watch, 2018  https://bigbrotherwatch.org.uk/wp-content/uploads/2018/05/Face-Off-final-digital-1.pdf
[3] https://www.technologyreview.com/2020/07/17/1005396/predictive-policing-algorithms-racist-dismantled-machine-learning-bias-criminal-justice/
[4] https://www.europarl.europa.eu/stoa/en/document/EPRS_STU(2019)624261
[5] https://cdn.paris.fr/paris/2022/07/18/91c13670573d55e6296cf13db8b5eb43.pdf
[6] https://www.ladn.eu/nouveaux-usages/liran-utiliserait-la-reconnaissance-faciale-pour-identifier-les-femmes-sans-hijab/
[7] https://www.lexpress.fr/societe/explosion-a-lyon-ce-que-l-on-sait-du-suspect-actuellement-recherche_2080153.html
[8] https://arxiv.org/abs/1610.08401
[9] https://www.lemonde.fr/idees/article/2023/03/06/les-mesures-de-videosurveillance-algorithmique-introduites-par-la-loi-jo-2024-sont-contraires-au-droit-international_6164276_3232.html
[10] https://theintercept.com/2020/01/27/surveillance-cctv-smart-camera-networks/
[11] https://www.france.tv/slash/invisibles/3302449-invisibles-les-travailleurs-du-clic-version-longue-2022.html

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.