Félix Tréguer
Chercheur, membre de La Quadrature du Net
Abonné·e de Mediapart

41 Billets

1 Éditions

Billet de blog 24 févr. 2022

IA et réforme de l'État : vers des bureaucraties sans humains ?

Depuis quelques années, à grand renfort d’un vocable issu du monde des « start-ups », on assiste à la consolidation d’un nouvel avatar de la réforme néo-libérale de l’État. Le contexte est en effet propice à l’automatisation de nombreuses fonctions administratives. Face à ce processus, des craintes s’expriment dans certains segments de la société. Analyse.

Félix Tréguer
Chercheur, membre de La Quadrature du Net
Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Texte publié en novembre 2021 sur AOC media.

Depuis quelques années, à grand renfort d’un vocable issu du monde des « start-ups », on assiste à la consolidation d’un nouvel avatar de la réforme néo-libérale de l’État. À travers les concepts d’« État plateforme » ou de « start-up d’État »1, les nouveaux réformateurs comptent sur les « corporate hackers » et l’innovation disruptive pour transformer de l’intérieur les bureaucraties publiques, laisser libre cours à la créativité, renouer avec la transparence, déployer des méthodes « agiles » et s’adapter à un environnement en perpétuelle transformation, le tout à moindre coût. L’« État digital » – concept vanté en juin 2017 par Emmanuel Macron lors d’une ode à la « startup nation » restée célèbre – est aussi et surtout un État en voie d’automatisation : pour accompagner l’horizon du non-remplacement de près de 50 000 fonctionnaires d’ici à 2022, le plan Action Publique 2022 lancé en octobre 2018 misait sur des « technologies telles que l’intelligence artificielle et les RPA (‘‘robotic process automation’’ »), et ce afin de « d’automatiser les tâches répétitives et à faible valeur ajoutée »2.

Le contexte est en effet propice à l’automatisation de nombreuses fonctions administratives. Outre la conversion d’une partie des élites politiques et administratives au concept de « gouvernance par les données », l’offre technologique des prestataires privés s’est aussi structurée, grâce notamment au développement rapide des techniques dites d’« intelligence artificielle » (IA). Du côté des « administrés », ce projet rencontre une plus grande acculturation de la population française au numérique3, avec un taux d’équipement important et de nombreux programmes pour la « former » aux outils numériques, que ce soit à l’initiative des pouvoirs publics ou d’entreprises comme Google (entreprise accueillie à bras ouverts par plusieurs villes françaises pour installer ses « ateliers numériques »).

Ces différents facteurs poussent à une multiplication des « assemblages algorithmiques » dans les administrations4. Que ce soit la dématérialisation de nombreuses démarches administratives, l’automatisation partielle de l’affectation post-Bac avec Parcoursup, l’automatisation de l’accompagnement des demandeurs d’emploi avec le projet « Mon Assistant Personnel » expérimenté par Pôle Emploi, l’automatisation de la lutte contre la fraude sociale par les caisses d’allocation familiale ou de la lutte contre la fraude sociale par le fisc, l’automatisation du contrôle d’identité via la reconnaissance faciale des bornes PARAFE installées dans plusieurs aéroports, ou encore l’automatisation des communications ou comportements suspects au sein des services de police ou de renseignement, nombre de pratiques administratives sont aujourd’hui de plus en plus articulées à des algorithmes semi-autonomes.

Face à ce processus, des craintes s’expriment dans certains segments de la société. Sont notamment évoqués les risques pour la vie privée, l’avènement d’une « société de contrôle » appuyée sur l’informatique, l’opacité des assemblages algorithmiques, les formes aggravées de déshumanisation induites par l’automatisation ou encore l’accentuation des inégalités structurelles. Au sein même des bureaucraties concernées par ces transformations, la peur du déclassement de l’humain par la machine, le surcroît de procédures, le risque de bugs techniques ou le phénomène rampant de privatisation suscitent également leur lot de résistances parmi les agents.

Dans le même temps, les avancées dans le domaine de l’IA ont conduit à la multiplication de travaux dédiés aux enjeux sociaux, éthiques et juridiques de ces technologies de plus en plus intégrées au fonctionnement des grandes organisations. L’objectif consiste à poser les règles minimales garantes de l’« acceptabilité sociale » de cette nouvelle étape du processus d’informatisation. Au travers d’un certain nombre de procédures, il s’agit par exemple de formaliser les choix éthiques réalisés dans le cadre du développement d’algorithmes, de garantir leur transparence, leur « explicabilité » ou leur « auditabilité », ou encore de réduire autant que faire se peut les risques pour les droits fondamentaux au travers d’approches dites de « privacy-by-design » et autres « chartes éthiques ».

L’échec de l’approche procédurale

Ces réflexions ont conduit à la multiplication de rapports, de livres blancs ou de textes de soft-law émanant du secteur privé, d’organismes de protection des données comme la CNIL, d’institutions comme le Parlement européen mais aussi d’organisations internationales comme le Conseil de l’Europe ou le Conseil des droits de l’Homme des Nations Unies. Au niveau international, entre 2016 et 2019, plus de soixante-dix chartes éthiques dédiées à l’intelligence artificielle ont ainsi été publiées par divers organismes, adoptant souvent une approche probabiliste et quantifiable des risques associés à l’IA5. Du côté des administrations publiques, ces travaux ont parfois débouché sur des dispositions législatives ou réglementaires ad hoc, à l’image de l’évaluation de l’« incidence algorithmique » désormais imposée aux administrations fédérales canadiennes6, mais aussi de la loi française qui, depuis 2016, garantit un principe de transparence des algorithmes publics servant à fonder des décisions administratives individuelles7.

En dépit de l’impression qui domine généralement d’avoir à faire à des défis tout à fait inédits, il est frappant d’observer la similitude des controverses actuelles avec celles ayant marqué le premier cycle d’informatisation de la société, dans les années 1970. Or, qu’il s’agisse des premières lois sur la protection des données personnelles face au fichage informatique ou les progrès de la transparence administrative pour compenser le surcroît d’opacité induite par l’informatisation de l’État, ces aménagements procéduraux ont passablement échoué à atteindre les objectifs qu’on leur avait assignés.

Cet échec s’est produit dans un contexte politique et technologique plutôt favorable : une période où, en réponse aux contestations d’alors, les États adoptaient de grandes législations libérales censées étendre les droits et libertés, et où la mise sur le marché des micro-ordinateurs et l’avènement de réseaux télécoms décentralisés conduisaient de nombreux commentateurs à prédire une avancée historique dans le processus de démocratisation. Quarante ans plus tard, à l’heure où le Big Data ou l’intelligence artificielle s’accompagnent d’une recentralisation phénoménale des capacités de calcul, à l’heure où l’accumulation des crises et des législations d’exception conduit à l’hypertrophie du pouvoir exécutif et à la consolidation d’un contrôle policier de plus en plus polycentrique, un tel découplage entre pouvoir et informatique paraît moins probable que jamais.

Malgré ce contexte peu engageant, les controverses contemporaines continuent de miser sur les mêmes remèdes, faits de garde-fous pour les droits et libertés et d’obligations de transparence. Récemment, l’un des rapporteurs au Parlement de la proposition de loi dite « sécurité globale » résumait bien la situation en évoquant sa conviction qu’en dépit de leurs dangers, l’usage des drones de surveillance par la police pourrait être encadré par des garanties appropriées : « J’essaie de trouver », expliquait-il alors, « des accommodements raisonnables, c’est-à-dire ‘‘oui, mais’’ ». C’est ainsi qu’à chaque débat parlementaire sur l’informatisation bureaucratique, on choisit de « prendre le risque », en tentant d’y parer par l’éternel retour des « accommodements raisonnables ». À tel point qu’on aimerait opposer à la logique du « oui, mais » le vieux dicton latin : « Errare humanum est, perseverare diabolicum » (« l'erreur est humaine, persévérer [dans son erreur] est diabolique »).

L’histoire n’est pourtant pas la seule discipline riche d’enseignement quant à l’inadéquation de ces « accommodements » pour la défense des valeurs démocratiques. Certains travaux en sociologie des sciences et des techniques ont également montré la faible portée pratique de ces approches procédurales, les règles ainsi posées étant souvent inapplicables, contournées, ou privées de leurs effets. Sur le plan juridique enfin, l’expérience montre également que les « gardes-fou » adoptés par le législateur ou les juges s’avèrent très fragiles. Compte tenu des logiques bureaucratiques d’optimisation (fonctionnelle, budgétaire, etc.) des tâches administratives, l’innovation technologique (dans le contrôle d’identité, le placement des bacheliers, etc.) tend systématiquement à créer un besoin, lequel se traduit tôt ou tard par des réformes visant à légaliser des usages qui paraissaient auparavant inenvisageables techniquement ou inacceptables socialement.

Des fonctionnaires dispensables

En réduisant les enjeux à des questions de procédures – donc à des questions souvent techniques sur la manière dont réguler l’usage d’un dispositif – et en se focalisant sur les artefacts technologiques en négligeant leur environnement institutionnel, les controverses actuelles tendent également à éluder certains problèmes politiques soulevés par l’automatisation bureaucratique. Par exemple, il est une question fondamentale dont il est rarement débattu : quelle serait la signification politique d’une bureaucratie presque entièrement automatisée ? La critique des tendances anti-démocratiques du pouvoir bureaucratique a occupé une place importante dans la théorie politique depuis le XIXè siècle. Mais sans minimiser les formes de violences associées aux bureaucraties passées et présentes, il n’en demeure pas moins qu’en pratique, leur potentiel dystopique peut être en partie contenu par les femmes et les hommes en leur sein.

C’est ce que soulignent de nombreux travaux en sociologie politique. Pour Michael Mann par exemple, la critique de Max Weber à l’encontre des bureaucraties exagère l’ampleur du pouvoir qu’elles peuvent imprimer sur la société : selon lui, puisque l’État doit procéder au recrutement massif de fonctionnaires pour garnir les rangs de bureaucraties toujours plus tentaculaires, le « pouvoir infrastructurel » de l’État sur la « société civile » se développe au prix d’une pénétration de ses propres structures administratives par cette même société civile, qui aux travers de ces fonctionnaires toujours plus nombreux est en mesure d’influencer l’État8. Dans une approche qui a le mérite d’éviter une opposition trop binaire entre État et « société civile », Timothy Mitchell évoque lui aussi les formes de résistance internes nourries par des « sujets politiques […] formés au sein de la sphère organisationnelle dénommée État »9.

De manière plus empirique, la sociologie de l’action publique a largement souligné le rôle joué par les « street-level bureaucrats » – c’est-à-dire les agents placés au contact direct des administrés – dans le travail d’interprétation et d’adaptation des règles aux réalités des publics et des terrains10. Au sein de la discipline, un débat a cours depuis une vingtaine d’années pour élucider les effets de l’introduction des technologies informatiques vis-à-vis de ce travail d’interprétation11. Si ces effets apparaissent ambivalents, il reste que, dans un certain nombre de contextes, la technologie rend d’ores et déjà quasiment impossible une telle herméneutique. Et quand bien même davantage d’études de terrain seraient nécessaires pour l’évaluer précisément, on peut s’attendre à ce que l’automatisation croissante de certaines tâches administratives en lien avec les dernières innovations technologiques rognent encore davantage sur les marges de manœuvre laissées aux « street-level bureaucrats ».

Ce pourrait d’ailleurs être là l’un des ressorts tacites du mouvement d’automatisation bureaucratique. Si, comme le suggère l’anthropologue David Graeber, la bureaucratie est « faite, d’abord et avant tout, d’agressions contre ceux qui persistent à défendre d’autres schémas ou des interprétations différentes »12, il n’est guère surprenant qu’elle appréhende la subjectivité de ses agents comme un aléas dispensable, en abordant le fonctionnaire et ses dilemmes moraux comme un bug à corriger13. Dans une bureaucratie automatisée, aucune désobéissance possible dans l’application de la règle inscrite dans le dispositif, plus aucun lanceur d’alerte dont la conscience pourra être à ce point heurtée par la violence bureaucratique qu’il ou elle se décidera à porter l’affaire à la connaissance du public. En évinçant l’élément humain dans l’application des règles rationnelles et impersonnelles, l’automatisation bureaucratique a le potentiel de faire advenir le gouvernement totalement déshumanisé que décrivait Hannah Arendt au tournant des années 1960 : « dans une bureaucratie pleinement développée, il ne reste plus personne avec qui l’on puisse discuter, à qui l’on puisse présenter des griefs (…) »14.

Cette analyse conduit à une autre interrogation : le fait d’accepter d’être administré par des machines ne conduit-il par à rompre avec l’horizon politique de l’humanisme, en acceptant de nous concevoir nous-mêmes – personnes administrées – comme des machines, c’est-à-dire comme les objets d’un gouvernement plutôt que des sujets politiques ? Dans un colloque récent auquel je participais et où certains s’inquiétaient de l’impossibilité d’accorder une responsabilité juridique à un dispositif autonome (par exemple une voiture « intelligente »), un directeur de recherche au CNRS, spécialiste de l’aide à la décision, estimait que de telles inquiétudes étaient infondées. Selon lui, on ne peut pas non plus – en tout cas pas toujours – expliquer les motivations, le raisonnement et les décisions d’un individu. Or, cela n’empêche pas, en l’état actuel du droit, de considérer ces mêmes individus comme des sujets de droit. De son point de vue, il n’y aurait donc pas de problème particulier à appréhender un ordinateur comme une personne juridiquement responsable.

Gouvernés comme des machines

Si innocent qu’il puisse paraître, ce genre d’assertion assume en réalité une rupture avec les principes humanistes au fondement du droit libéral15. Ce dernier considère en effet que, même si les motivations et les état mentaux d’autrui ne peuvent pas toujours être sondés, ils sont en fait équivalents aux nôtres. Selon cette conception, autrui est réputé doué des mêmes facultés que nous, animé lui aussi par une volonté et des désirs. C’est ce qui fait de lui un pair devant jouir de droits et d’une dignité égale à la nôtre. Même si le fait d’être administré par des organisations bureaucratiques constitue bien une forme de dépossession et de violence, au moins est-elle en partie rendue plus tolérable (car plus « négociable ») par l’existence d’interlocuteurs humains (en espérant que ces personnes pourront user à bon escient d’une certaine marge d’interprétation).

Dès lors que cet « élément humain » disparaît, dès lors que ne subsiste plus que le fonctionnement froid et impénétrable d’un algorithme fondé sur des simplifications abstraites et une approche quantitative et probabiliste du réel (fut-il paramétré par un ingénieur), cette capacité à négocier avec un pair disparaît. Comme le notait Arendt, il devient dès lors impossible de faire valoir nos situations spécifiques, nos subjectivités et nos affects en comptant sur l’empathie d’autrui. En édifiant des bureaucraties toujours plus automatisées, nous risquons donc de solder cette « anthropologie humaniste » au fondement du droit libéral pour lui substituer une anthropologie guerrière et cybernétique au sein de laquelle, comme le souligne le philosophe des sciences Peter Galison, chacun est considéré comme une « boîte noire », avec « des entrées et des sorties et sans accès à la vie intérieure d’autrui16 ». Ce qui revient, en fin de compte, à accepter de nous considérer les uns les autres comme des machines.

La focale procédurale et le primat donné aux dispositifs socio-techniques dans l’évaluation des « risques » écarte aussi d’autres enjeux soulevés par la logique d’optimisation bureaucratique. Par exemple, l’une des justifications les plus courantes à l’informatisation des administrations tient à des objectifs comptables et budgétaires : en réalisant un saut qualitatif dans l’automatisation, l’IA permettrait de faire « passer à l’échelle » tel ou tel process bureaucratique en réalisant des économies d’échelle. Ainsi, dans un courrier à la CNIL, la région PACA défendait récemment l’expérimentation de la reconnaissance faciale aux abords des lycées en affirmant que ce projet constituait « une réponse au différentiel croissant constaté entre les exigences de sécurisation des entrées dans les établissements et les moyens humains disponibles dans les lycées, dans le cadre des plans successifs de réduction des effectifs dans la fonction publique »17. De même, les applications dite de « backtracking » popularisées lors de la pandémie de COVID-19 consistent à automatiser les stratégies de contact-tracing traditionnellement menées par des professionnels de santé ou des bénévoles afin d’identifier les chaînes de contamination – des approches qu’il est financièrement coûteux de massifier. Quant à la détection automatique de la fraude sociale et fiscale à partir de l’analyse des publications sur les réseaux sociaux actuellement expérimentées par le fisc français, elle intervient dans un contexte où plus du quart des quelques 12 000 postes dédiés au contrôle fiscal a été supprimé18.

Ce ne sont pas là des cas isolés : Romain Boucher, un « data scientist » ayant pris part en tant que consultant à de nombreux projets de « transformation de l’action publique », résume son expérience en ces termes :

« Au bout d’un moment on se rend compte que les types de mission qui reviennent sont des missions de surveillance et de rationalisation d’effectifs (…) On nous demandait de réaliser de belles présentations pour montrer à la Transformation publique combien on économisait. La logique d’amélioration du service public n’existait plus »19.

Intimement liée aux politiques d’austérité, l’automatisation poursuit ainsi le mouvement néo-libéral de sape du service public mais aussi de précarisation et de déqualification d’une partie de la fonction publique, victime d’une atomisation croissante et du démantèlement de ses capacités d’action collective.

Parmi les autres enjeux fréquemment éludés par la focale procédurale, on pourrait encore évoquer le coût écologique engendré par le processus d’automatisation (l’un des arguments opposés par les abonnés Enedis à l’automatisation des relevés de leur consommation électrique via les compteurs connectés), la privatisation de l’expertise et l’affaiblissement des compétences des agents publics dès lors que les algorithmes sont le plus souvent conçus par des prestataires externes (ce dont ont pu se plaindre des syndicats policiers opposés à des partenariats avec des entreprises spécialisées dans des technologies de surveillance20), l’incapacité fréquemment constatée des grands chantiers de dématérialisation et d’automatisation à atteindre l’objectif de « simplification » et leurs effets bien réels sur l'aggravation des ingéalités21, ou encore la légitimité des revendications de celles et ceux qui refusent de répondre aux multiples injonctions technologiques et souhaitent continuer à bénéficier des services publics au travers de guichets physiques, peuplés d’humains en chair et en os22.

Si l’automatisation bureaucratique aggrave les tendances totalitaires de la domination bureaucratique, et si la multiplication de procédures pour en contenir les effets délétères a fait la preuve de sa trop grande inefficacité, alors il est peut être temps d’en tirer les conséquences. Sans forcément renoncer à dépasser l’antagonisme entre bureaucratie et démocratie23, il s’agirait alors de nous en tenir à un principe de précaution en joignant nos voix à celles et ceux qui, en différents endroits du monde social, disent haut et fort leur refus d’un « État digital » et du projet technocratique dont il procède.


  1. Voir par exemple : Algan, Yann et Cazenave, Thomas, 2016. L’Etat en mode start-up. Paris : Eyrolles. Bertholet, Clément et Létourneau, Laura, 2017. Ubérisons l’État ! Avant que d’autres ne s’en chargent. Malakoff : Armand Colin. Pezziardi, Pierre et Verdier, Henri, 2017. Des startups d’État à l’État plateforme. CreateSpace Independent Publishing Platform.
  2. Action Publique 2022 : Notre stratégie pour la transformation de l’action publique. Octobre 2018. Paris: Gouvernement français.
  3. Près de 10 millions de résidents français ne bénéficient toutefois pas d’accès à Internet (soit parce qu’ils ne disposent pas d’abonnement, soit qu’il ne disposent pas d’équipements adéquats). Voir le baromètre du numérique réalisé par l’Arcep, juillet 2021, p. 308 : https://www.arcep.fr/uploads/tx_gspublication/rapport-barometre-numerique-edition-2021-infographie.pdf. Trois français sur dix s’estiment incompétent pour réaliser des démarches administratives en ligne. Charrel, Marie, et Zeliha Chaffin. 7 septembre 2021. « Illectronisme : les laissés-pour-compte du tout-numérique ». Le Monde. https://www.lemonde.fr/economie/article/2021/09/07/illectronisme-les-laisses-pour-compte-du-tout-numerique_6093657_3234.html.
  4. Sur la notion d’« assemblage algorithmique », voir Ananny, Mike, et Kate Crawford. 2018. « Seeing without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability ». New Media & Society 20(3): 973‑89.
  5. Renn, Ortwin, Andreas Klinke, et Marjolein van Asselt. 2011. « Coping with Complexity, Uncertainty and Ambiguity in Risk Governance: A Synthesis ». AMBIO 40(2): 231‑46. Budish, Ryan. 2020. « AI & the European Commission’s Risky Business ». Berkman Klein Center for Internet and Society. https://medium.com/berkman-klein-center/ai-the-european-commissions-risky-business-a6b84f3acee0.
  6. Voir la présentation de l’« outil d’évaluation de l’incidence algorithmique » sur le site Web du gouvernement canadien, https://archive.md/wip/uJuZ7.
  7. Article 4 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique.
  8. Mann, Michael. 2012. The Sources of Social Power: Volume 2, The Rise of Classes and Nation-States, 1760-1914. Cambridge University Press, p. 59.
  9. Mitchell, Timothy. 2018. « Les limites de l’État : Au-delà des approches étatistes et de leurs critiques ». In Etat et société politique : Approches sociologiques et philosophiques, éd. Bruno Karsenti et Dominique Linhardt. Paris: Editions de l’Ecole des Hautes Etudes en Sciences Sociales, p. 372.
  10. Voir par exemple : Dubois, Vincent. 2013. « Le rôle des street-level bureaucrats dans la conduite de l’action publique en France ». In La France et ses administrations. Un état des savoirs, éd. Jean-Michel Eymeri–Douzans et Geert Bouckaert. Bruxelles: Bruylant, 169‑77.
  11. Snellen, Ignace. 2002. « Electronic Governance: Implications for Citizens, Politicians and Public Servants ». International Review of Administrative Sciences 68(2): 183‑98. Buffat, Aurélien. 2015. « Street-Level Bureaucracy and e-Government ». Public Management Review 17(1): 149‑61.
  12. Graeber, David. 2015. Bureaucratie: L’utopie des règles. Les Liens qui libèrent, chapitre 2.
  13. On retrouve ce parti pris dans la doctrine juridique. Voir par exemple Michoud, Léon. 1914. « Étude sur le pouvoir discrétionnaire de l’administration », Rev. gén. adm., sept.-déc. 1914, p. 11 : « En théorie, il n’existe qu’une seule solution exacte ; toute autre repose sur une erreur d’appréciation. Il s’agit seulement de dégager la véritable règle de droit et de l’appliquer à un fait. La divergence possible des solutions a pour cause unique l’insuffisance, l’incertitude des jugements humains ».
  14. Arendt, Hannah. 2003. Du mensonge à la violence. Paris : Presses Pocket
  15. Delmas-Marty, Mireille. 2010. Libertés et sûretés dans un monde dangereux. Seuil, p. 84 et suivantes.
  16. Galison, Peter. 1994. « The Ontology of the Enemy: Norbert Wiener and the Cybernetic Vision ». Critical Inquiry 21(1): 228‑66. Voir aussi : Bruno, Fernanda, Maurício Lissovsky, et Icaro Ferraz Vidal Junior. 2018. « Abstraction, expropriation, anticipation : Note généalogique sur les visions machiniques de la gestualité ». Reseaux n° 211(5): 105‑35.
  17. Voir le courrier envoyé par la Région Sud à la CNIL. 7 mars 2018. https://data.technopolice.fr/fr/entity/hi661p1k6s9.
  18. Desbois, Dominique. 2019. « Drague fiscale sur les réseaux sociaux : de nouveaux algorithmes d’apprentissage pour traquer la fraude ». Terminal. Technologie de l’information, culture & société. https://hal.archives-ouvertes.fr/hal-02406386. Marzolf, Émile. 2021. « L’intelligence artificielle se fait lentement sa place dans la lutte contre la fraude fiscale ». Acteurs Publics. https://www.acteurspublics.fr/articles/lintelligence-artificielle-se-fait-lentement-sa-place-dans-la-lutte-conte-la-fraude-fiscale.
  19. Cité dans Delaunay, Matthieu. 4 mai 2021. Du « Consulting for good » aux potagers corses. Club de Mediapart. https://blogs.mediapart.fr/delaunay-matthieu/blog/050421/du-consulting-good-aux-potagers-corses.
  20. « Réaction du SDPM à l’interdiction par la CNIL de l’application Reporty à Nice ». Syndicat de Défense des Policiers Municipaux (mars 2018). http://www.sdpm.net/2018/03/reaction-du-sdpm-a-l-interdiction-par-la-cnil-de-l-application-reporty-a-nice.html.
  21. Deville, Clara. 2018. « Les chemins du droit : Ethnographie des parcours d’accès au RSA en milieu rural ». Gouvernement et action publique, 7(3): 83‑112. Voir aussi : Vallipuram, Taoufik. 29 décembre 2019. « Non, il ne faut pas combattre la fracture numérique ». Libération. https://www.liberation.fr/debats/2019/12/29/non-il-ne-faut-pas-combattre-la-fracture-numerique_1771308/, Charrel, Marie et Chaffin, 2021. Art. cit. et Brygo, Julien. 2019. « Peut-on encore vivre sans Internet ? » Le Monde diplomatique. https://www.monde-diplomatique.fr/2019/08/BRYGO/60129.
  22. d’Allens, Gaspard, et Alain Pitton. 3 février 2020. « Des humains plutôt que des machines : usagers et cheminots contestent la numérisation des gares ». Reporterre, le quotidien de l’écologie. https://reporterre.net/Des-humains-plutot-que-des-machines-usagers-et-cheminots-contestent-la-numerisation-des.
  23. Pour des pistes de réflexion, voir par exemple : Bourgault, Sophie. 2017. « Prolegomena to a Caring Bureaucracy ». The European journal of women’s studies 24(3): 202‑17.

Bienvenue dans le Club de Mediapart

Tout·e abonné·e à Mediapart dispose d’un blog et peut exercer sa liberté d’expression dans le respect de notre charte de participation.

Les textes ne sont ni validés, ni modérés en amont de leur publication.

Voir notre charte

À la Une de Mediapart

Journal
Le jugement consacre la liberté d’informer
Dans un jugement du 6 juillet 2022, le tribunal de Nanterre a condamné l’État pour sa tentative de perquisition des locaux de Mediapart du 4 février 2019, la jugeant « ni nécessaire dans une société démocratique ni proportionnée à l’objectif poursuivi ». Le jugement, très sévère pour le parquet de Paris, consacre aussi la protection des sources.
par Edwy Plenel
Journal — Exécutif
À l’Assemblée, Élisabeth Borne invente le « compromis » sans concession
La première ministre a prononcé, mercredi 6 juillet, sa déclaration de politique générale à l’Assemblée nationale. Face aux députés, elle a tenté de tracer les contours d’un quinquennat du « compromis », sans rien céder sur le fond du programme d’Emmanuel Macron.
par Romaric Godin et Ilyes Ramdani
Journal
Face à la première ministre, LFI et le RN divergent sur la stratégie
Les deux forces d'opposition ont fait vivre une séance mouvementée à Élisabeth Borne qui prononçait, mercredi 6 juillet, son discours de politique générale. La gauche a déposé une motion de censure. La droite et l’extrême droite ont annoncé qu’elles ne la voteront pas.
par Pauline Graulle et Christophe Gueugneau
Journal — Santé
Au ministère de la santé, un urgentiste qui rêvait de politique
La nomination de François Braun au chevet d’un système de santé aux multiples défaillances est plus qu’un symbole. Ce médecin de terrain, formé dans les déserts médicaux, est aguerri aux crises sanitaires. Mais il laisse, à Metz, un service d’urgences en grandes difficultés.
par Caroline Coq-Chodorge et Rozenn Le Saint

La sélection du Club

Billet de blog
Est-ce la fin du Bac Pro ?
Carole Grandjean vient d'être nommée ministre déléguée à l'enseignement professionnel. Dans un tweet daté du 17 mars, elle expliquait vouloir "une réforme du lycée professionnel sur le modèle de l'apprentissage" laissant présager d’un bouleversement de l’éducation nationale.
par Germain Filo
Billet de blog
Sous Macron, l'écologie chute en 10ème place mais l'homophobie se classe en 1ère
Au dernier remaniement, plusieurs homophobes rentrent définitivement au gouvernement. Le plus notable, Christophe Béchu, maire d'Angers, devient Ministre de la transition écologique, domaine où il n'a aucune compétence. Le rang protocolaire du Ministère de l’Ecologie, lui, passe du 5ème au 10ème rang.
par misterjbl
Billet de blog
Un ministère au double intitulé et à la double tutelle pour un double jeu ?
Carole Grandjean vient d'être nommée ministre déléguée en charge de l'Enseignement et de la formation professionnels auprès du ministre de l'Education nationale et de la Jeunesse mais aussi du ministre du Travail. Cet intitulé et cette double tutelle n'ont pas de précédent. Serait-ce propice à un double jeu ?
par claude lelièvre
Billet de blog
Boone : « La pauvreté est contenue »
Quand l’économiste Laurence Boone considérait que « l’argent est très bien redistribué vers les pauvres » et quand le chef de l’État fustige les « profiteurs de guerre ». Petit retour également sur les Gilets jaunes d’avant les Gilets jaunes.
par YVES FAUCOUP