En 2023, l'association La Quadrature du net, alertait sur l'existence d'un algorithme de notation des allocataires de la CAF. Cette publication démontrait l’aspect dystopique d’un système de surveillance allouant des scores de suspicion à plus de 12 millions de personnes, sur la base desquels la CAF organise délibérement la discrimination et le sur-contrôle des plus précaires.
« Situation familiale, professionnelle, financière, lieu de résidence, type et montants des prestations reçues, fréquence des connexions à l’espace web, délai depuis le dernier déplacement à l’accueil, nombre de mails échangés, délai depuis le dernier contrôle, nombre et types de déclarations : la liste de la quarantaine de paramètres pris en compte par l’algorithme révèle le degré d’intrusion de la surveillance à l’oeuvre ».
C'est ainsi que des allocataires en situation de précarité ont subi plus de contrôles et de radiations ou de récupérations de "trop perçu" que la moyenne.
Autre application : la vidéosurveillance algorithmique.
C'est aux Jeux Olympiques de Paris que cette technique sera mise en œuvre. le ministère de l’Intérieur évoque pour les Jeux l’installation de 15 000 nouvelles caméras, pour 44 millions d’euros de financement du Fond interministériel pour la prévention de la délinquance (FIPD).
Il est difficile de croire qu'à l'issue des JOP de Paris ces caméras seront désactivées.
Serviront-elles pour le contrôle des demandeurs d'asile ?
C'est déjà le cas en Grèce :
« L’un des plus importants marchés de la surveillance aujourd’hui porte sur le contrôle des frontières à l’intérieur et à l’extérieur des pays membres de l’Union européenne. L’usage d’algorithmes de détection de comportements est ainsi utilisé sur des drones en Grèce afin de repérer et suivre des personnes aux zones de frontières. Dans ce cas précis, il est impossible de réduire la technologie fournie (et donc conçue et entraînée au préalable) à une seule assistance technique. Au contraire, elle est au service d’une politique répressive et d’une pratique policière dénoncée pour sa brutalité ».
L'Union Européenne et Frontex se déclarent très intéressés :
« L’Union étudie activement la manière dont les technologies d’IA peuvent être élaborées et adoptées afin d’améliorer le contrôle et la sécurité aux frontières. Un certain nombre d’applications d’identification biométrique, de détection des émotions, d’évaluation des risques et de suivi de la migration ont déjà été déployées ou testées aux frontières de l’Union. Les technologies d’IA peuvent apporter des avantages importants pour le contrôle et la sécurité aux frontières, comme une efficacité accrue, une meilleure détection des fraudes et une meilleure analyse des risques. Toutefois, ces technologies puissantes présentent également des enjeux importants, liés notamment à leur précision insuffisante ou variable et aux multiples risques qu’elles comportent pour les droits fondamentaux (y compris les risques de biais et de discrimination, les risques liés à la protection et la confidentialité des données, et le risque de profilage illicite) ».
Le bémol « toutefois » sert surtout à l'UE pour se donner bonne conscience.
https://www.europarl.europa.eu/thinktank/fr/document/EPRS_IDA(2021)690706
L'IA comme arme de destruction massive :
« L'armée israélienne a désigné des dizaines de milliers d'habitants de Gaza comme des suspects à assassiner, utilisant un système de ciblage par IA [intelligence artificielle] avec peu de vérification humaine et fondé sur une politique permissive quant aux pertes humaines », écrit le journaliste Yuval Abraham dans une vaste enquête publiée conjointement par le média israélo-palestinien +972 Magazine et le site d'information en hébreu Local Call.
L'IA pour mieux cibler les « terroristes » par l'armée israélienne (qui se prétend « armée la plus morale du monde ») est un fait documenté, mais c'est une vaste blague quand on voit le « résultat » en termes de vies humaines détruites, de bâtiments atomisés. C'est l'intégralité du peuple de Gaza qui a été « ciblé ».
Conclusion :
D'une manière générale, les techniques telles que l'IA, demandant des investissements massifs, sont mises en œuvre pour développer des marchés. La surveillance des migrants et des précaires est un gâteau de choix pour ces entreprises et une aubaine pour les tenants d'une politique de plus en plus sécuritaire. Et son utilisation par les militaires, pas seulement israéliens, jette un froid, pour ne pas dire le dégoût absolu.
Est-il possible de reprendre le contrôle sur les applications de ces technologies, en en limitant le champ à des objectifs utiles au plus grand nombre ? Eternelle question de qui prend les décisions.