Je reprends avec ce troisième billet, la critique d’une des théories d’Antoinette Rouvroy exposée dans son blog sur Médiapart: « Des algorithmes puissants faisant des analyses statistiques sur les données personnelles disponibles de manière quasi-illimitée permettent d’anticiper les comportements humains » . Ces mécanismes sont déjà en place, selon elle, et nous « gouvernent » déjà ont déjà pris le contrôle de nos vie.
Le point sur lequel je suis entièrement d’accord avec elle c’est que de tels mécanismes de décisions, d’administration, de gouvernement (pour reprendre le terme) basés sur des algorithmes utilisant des modèles des individus existent déjà… depuis au moins un siècle, depuis que l’administration ou les entreprises traitent les citoyens, les consommateurs sur la base d’information standardisée.
Prenons l’exemple d’une demande de visa touristique effectuée par un jeune Sénégalais auprès du Consulat de France à Dakar. L’individu va remplir une fiche, fournir un nombre restreint d’informations. Sur la base de ces informations l’administration consulaire va se bâtir un « modèle » du demandeur, et appliquer un algorithme. La réponse « visa accordé » ou « visa refusé » sera le résultat de l’algorithme.
- Est-ce que le modèle est complet ? Non, un modèle n’est jamais complet, surtout lorsqu’il s’agit du modèle d’un être humain.
- Est-ce que l’algorithme est faux ? Oui. Le visa peut-être refusé alors que l’individu n’a aucune intention de ne pas rentrer au Sénégal à l’issue des 3 mois. L’administration n’en saura jamais rien et continuera d’appliquer le même algorithme à d’autres, créant au passage des frustrations beaucoup plus profondes que de savoir que j’ai payé mon billet d’avion 30€ trop cher.
- Est-ce que l’individu a un recours ? Non, il ne peut pas effacer ses « cookies » et refaire une demande. Il ne peut pas non plus aller voir sur un site concurrent (quoi que, avec Schengen, il y a des possibilités de refaire une demande au consulat allemand…)
D’autres exemples? Une candidature à un emploi, le profilage à l’entrée d’une boîte de nuit, une demande de prêt immobilier… A chaque fois on a le même processus de décision : un modèle de l’individu qui fait la demande… et un algorithme qui arrive à une décision oui / non sur la base de ce modèle et de règles mal connues par l’individu.
Y-a-t-il un changement qualitatif avec internet ? Quantitatif, sans doute, puisque ce genre de profilage et de mise en algorithme devient plus facile, des données étant disponibles partout, et donc à la portée d’un plus grand nombre d’entreprises. Mais qualitatif, je viens d’essayer de montrer que non. C’est pourquoi inventer un nouveau terme (« Gouvernementalité algorithmique ») n’apporte à mon avis pas grand-chose d’autre que de la confusion. La nouveauté pourrait venir de l’approche statistique qui a servi à établir les modèles (plutôt qu’une approche cherchant à lier des cause et des effets »)… une telle approche de recherches de corrélations est pourtant très ancienne et très répandue, comme j’essaierai de le montrer dans une 4ème billet.
Pour info, j'avais déjà développé l'importance de la notion de modèle il y a près de 2 ans, dans ce billet.