Comment la CAF a traité mon dossier avec un «robot à dettes»

Comment la réforme des APL et la machine algorithmique de la CAF a momentanément classé mon dossier comme « à risque » et m'a crée une dette.

Je suis travailleuse précaire et célibataire. Je bénéficie des APL, de la prime d'activité et parfois d'un complément RSA, dispensés par la CAF. En plus de mon statut de salariée déclarée depuis septembre 2007 j'ai enregistré une micro-entreprise créée en avril 2020. Je n'avais jamais eu de soucis avec la CAF, remplissant chaque déclaration trimestrielle en ayant conscience que mes revenus sont aussi vérifiés par les impôts.

17 mars 2021, j'ouvre un mail de la CAF me demandant de leur fournir des informations afin de mettre à jour mon dossier suite à la dernière réforme des APL. Un peu surprise par la bonne année de déclarations de revenus à renvoyer, je m'exécute et envoye également un mail expliquant ma situation.

Le lendemain matin, deux nouveaux mails me demandant de fournir de nouveau ces éléments, et la notification d'une dette de 542€ avec retenue immédiate sur mon prochain virement jusqu'à règlement. Sidérée et surtout très énervée, je réalise ce qui coince. Seule mon statut d'auto-entrepreneuse est retenue, entraînant un autre mode de calcul en ma défaveur, mais je ne comprends pas pourquoi. Je réserve un rendez-vous téléphonique avec un conseiller pour le 26 mars.

Peu après, message vocal sur mon téléphone. Une agente de la CAF tenait à me dire que suite à mon mail elle a annulé ma dette et classé mon dossier. J'aurais pu en rester là après ces 24h de montagnes russes émotionnelles, mais j'étais déterminée à comprendre leurs méthodes.

26 mars, appel de la CAF. Le conseiller confirme que c'est bien « le logiciel » qui a traité mon dossier selon certains paramètres. Jugé trop complexe depuis la déclaration de création de micro-entreprise, il a été remis à zéro puis re-traité, d'où la demande de documents. Malgré mes questions je n'ai pas compris pourquoi seule ma situation d'auto-entrepreneuse est retenue, bien qu'aussi salariée, avec les déclarations de revenus adéquates. Le mail notifiant ma dette a été envoyé dès que l'algorithme a détecté une erreur dans mon dossier. La machine menace d'abord, les humain·es vérifient ensuite. Seul mon mail a permis à la CAF de classer vite et correctement mon dossier. Et ce sont bien leurs outils automatisés qui m'ont mis en difficulté.

La CAF a mis en ligne sur son site le 3 septembre 2020 la page « Contrôles Caf : stop aux idées reçues », présentant ces démarches comme bénéfiques aux allocataires. Elle mentionne l'emploi de « contrôle automatisé » ainsi que « d'un modèle statistique, dit « datamining », qui cible automatiquement les dossiers « à risque » ». Leur mode opératoire est donc public mais néanmoins obscur à moins de maîtriser le vocabulaire. Est également dit que « vous pouvez éviter d'avoir une dette […] en déclarant systématiquement, et sans attendre, tout changement de situation ». Or c'est justement ce qui a déclenché le contrôle ciblé et la dette.

La CAF utilise le data mining depuis 2012, à la base d'environ 75% des contrôles des allocataires. La première prestation inspectée par ses équipes spécialisées en 2021 est le calcul des APL, suite à la réforme gouvernementale. J'en ai discuté avec le sociologue Vincent Dubois, qui étudie ce sujet depuis des années et publie le 15 avril Contrôler les assistés (éditions Raisons d'agir). « Techniquement, le déclenchement des contrôles par le data mining ne repose pas sur des caractéristiques sociales mais sur des « facteurs de risques », et n’identifie pas des individus ou des groupes spécifiques mais des dossiers. Ce mode de ciblage n’est cependant pas neutre socialement. Les « facteurs de risques » ne sont de fait pas distribués au hasard, ne serait-ce que parce que les critères et modalités d’attribution varient selon les prestations, dont les bénéficiaires sont socialement et économiquement différenciés. » (p.418) Être une travailleuse précaire célibataire de longue date fait partie des « facteurs de risques ». Il y cite aussi la politologue Virginia Eubanks, qui réclame la « justice algorithmique » dans son essai Automating Inequality (2017): « Les voix des communautés pauvres et populaires, des bénéficiaires d’aides sociales, des sans domicile fixe et de ceux dont les familles sont démantelées par l’État sont essentielles pour rendre les systèmes automatisés plus justes. »

Suite son site la CAF explique que les données personnelles des allocataires sont régulièrement examinées par la CNIL. Pourtant le règlement général sur la protection des données personnelles est très clair sur ce sujet : les décisions automatisées qui « affectent de manière significative » les citoyen·nes sont interdites (article 22 RGPD). La loi pour une République Numérique, votée en 2016, oblige les administrations à indiquer aux personnes concernées lorsque leur dossier a fait l'objet d'un traitement automatisé (article 4). (Les mails que j'ai reçu de la CAF étaient muets à ce sujet.) Contactée, la CNIL n'a pas répondu à mes questions.

Si vous avez rencontré ou rencontrez des difficultés similaires n'hésitez pas à me contacter : lucieinland[@]gmail.com

Article initialement publié pour AlgorithmWatch (traduction par Nicolas Kayser-Bril).

© AlgorithmWatch, licence Creative Commons CC BY

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.