Germán Beber
Les classements internationaux évaluant la préparation des gouvernements à l’adoption de l’intelligence artificielle (IA) situent l’Amérique latine en position de retard. Le Brésil occupe la 36ᵉ place, le Chili la 44ᵉ et l’Uruguay la 47ᵉ parmi les 193 pays analysés par le Government AI Readiness Index (GAIRI). Pourtant, lorsque les élections brésiliennes de 2024 ont été confrontées à une vague massive de deepfakes, le Tribunal supérieur électoral a réagi avec une efficacité remarquable. Le pays ne disposait ni d’un cadre réglementaire spécifique sur l’IA, ni d’une stratégie nationale pleinement mise en œuvre. Seulement d’une capacité de coordination institutionnelle construite sous pression. Paradoxalement, un pays considéré comme « mal préparé » par les indices internationaux est parvenu à protéger son processus électoral face à des menaces algorithmiques concrètes.
La contradiction s’approfondit lorsque l’on constate que plusieurs pays latino-américains traversent aujourd’hui des processus d’érosion démocratique. Dans des démocraties où la qualité institutionnelle s’affaiblit, des réponses rapides émergent malgré tout pour protéger les processus électoraux de menaces algorithmiques. Mais quel type de gouvernance démocratique se construit lorsque l’urgence dicte les règles du jeu ?
L’efficacité par la concentration
Lorsque les deepfakes ont commencé à menacer les processus électoraux dans la région, les réponses n’ont pas découlé de longs débats législatifs ni de vastes consultations publiques. Elles ont été produites par des institutions techniques agissant avec célérité : tribunaux électoraux interdisant les contenus manipulés, agences de vérification évaluant la véracité, plateformes numériques modérant selon des critères établis à la hâte.
Les pays ayant réagi le plus rapidement aux menaces de désinformation automatisée ces dernières années n’étaient pas nécessairement ceux les mieux préparés selon les indicateurs traditionnels. Ils ne disposaient ni des meilleures stratégies nationales en matière d’IA, ni de l’infrastructure computationnelle la plus sophistiquée. Ce qu’ils possédaient, c’était la capacité de prendre des décisions rapides.
En 2024, par exemple, on a recensé plus de 200 signalements de violence politique numérique visant des candidates dans la région. De ces signalements, près de la moitié étaient liés aux réseaux sociaux. Les réponses judiciaires ont appliqué les législations existantes sur la « vengeance pornographique » à des deepfakes politiques. Sans cadres préventifs spécifiques. Sans débat public préalable sur les critères de modération. L’urgence a justifié les raccourcis.
Quels résultats produisent ces modes de réaction ? Les processus électoraux sont protégés. Les candidates vulnérables reçoivent des réponses institutionnelles. La désinformation massive est contenue. Mais cette dynamique produit également des précédents : qui décide de l’information autorisée pendant les campagnes électorales et selon quels critères ? Ces précédents doivent-ils être considérés comme inquiétants ou nécessaires ? La réponse dépend de l’importance que nous accordons à l’efficacité immédiate face aux contrôles démocratiques de long terme.
Qui décide et sous quels contrôles ?
La gouvernance de l’IA dans des démocraties sous pression fait face à une tension majeure. Protéger les processus électoraux contre la manipulation algorithmique exige des décisions rapides fondées sur une expertise technique que la majorité des citoyens — et des responsables politiques — ne possèdent pas. Déterminer si une vidéo est un deepfake manipulatoire ou une satire politique légitime nécessite des connaissances spécialisées et une réactivité difficilement compatible avec des délibérations publiques étendues.
Cela justifie de déléguer certaines décisions à des institutions techniques : tribunaux électoraux, agences de vérification, équipes spécialisées mobilisées lors de crises informationnelles. Le problème ne réside pas dans la délégation en soi, mais dans l’absence de contrôles démocratiques effectifs sur ces décisions. Qui révise les critères utilisés ? Comment garantir que la modération des contenus n’est pas influencée par des biais politiques ? Quels mécanismes de reddition de comptes existent lorsqu’une institution technique déclare unilatéralement qu’un contenu est manipulé ?
Les données régionales montrent que les pays dont les performances sont meilleures en matière de « gouvernance et éthique » selon les indices internationaux ne disposent pas forcément de mécanismes clairs d’accountability pour les décisions techniques prises dans l’urgence. L’écart entre les pays les mieux classés et les plus en retard dans la préparation formelle à l’IA atteignant plus de 50 points sur 100 dans le GAIRI, ne se traduit pas par des différences équivalentes en matière de contrôle démocratique sur les organismes qui modèrent le contenu numérique en période de crise électorale.
L’efficacité visible produit une légitimation tacite. Les citoyens acceptent que des institutions techniques prennent des décisions sur la circulation de l’information parce que « cela fonctionne » pour protéger les élections. Mais cette acceptation pragmatique établit des précédents de concentration décisionnelle justifiée par l’expertise. On ne délègue plus à des dirigeants élus, mais à des élites techniques administrant les algorithmes et déterminant la vérité informationnelle.
Un dilemme conceptuel émerge alors. Imaginons deux trajectoires possibles pour la gouvernance démocratique de l’IA dans la région. La première privilégie le caractère institutionnel formel : stratégies nationales approuvées, cadres éthiques élaborés, procédures délibératives institutionnalisées. Face à une crise, ces protocoles impliquent des processus plus lents, des consultations plus larges, des contrôles plus robustes. Plus démocratiques sur le plan procédural, mais moins agiles.
La seconde privilégie la capacité de réponse : des décisions techniques directes sans délibération préalable extensive. Elle protège l’immédiat au moyen d’une concentration décisionnelle pouvant éroder les contrôles démocratiques. L’urgence rend les raccourcis non seulement commodes mais parfois inévitables. Peut-on combiner les deux voies ? Ou bien toute démocratie sous pression doit-elle choisir entre efficacité et procédure ?
Lorsque l’exceptionnel se normalise
L’Amérique latine produit aujourd’hui un savoir dont d’autres démocraties auront besoin : comment protéger les processus politiques des menaces algorithmiques lorsque les procédures démocratiques se révèlent parfois trop lentes. La réponse régionale a consisté à privilégier l’efficacité par la concentration décisionnelle dans des institutions techniques. Cela permet de contenir les crises immédiates, mais risque de construire des précédents d’érosion procédurale.
L’expérience récente montre que la gouvernance efficace de l’IA dans des démocraties sous pression peut nécessiter — du moins temporairement — des raccourcis procéduraux. Des décisions rapides sans délibération approfondie. Des critères techniques sans contrôles démocratiques solides. Une concentration décisionnelle justifiée par l’urgence. Le problème critique concerne la temporalité : si ces mesures exceptionnelles se banalisent, elles cessent d’être des réponses extraordinaires et redéfinissent les architectures institutionnelles.
Les solutions construites sous pression génèrent des apprentissages, mais aussi des risques : fatigue organisationnelle, dépendance à des coordinations exceptionnelles, vulnérabilité face aux alternances politiques. Que se passera-t-il lorsque les menaces seront plus sophistiquées lors des prochains cycles électoraux et que les équipes seront épuisées ?
Les indices qui évaluent la préparation de nos gouvernements à l’IA privilégient l’infrastructure computationnelle, l’investissement en recherche et les écosystèmes d’innovation. Ils mesurent des capacités importantes, mais n’évaluent ni la résilience démocratique ni les coûts institutionnels de réponses prises dans l’urgence. Ils ne mesurent pas si l’efficacité face aux crises est construite selon des processus qui renforcent ou affaiblissent les contrôles démocratiques.
La région tire un apprentissage inconfortable : l’efficacité dans la protection des processus électoraux peut reposer sur des décisions qui affaiblissent précisément les contrôles démocratiques qu’elles cherchent à défendre. La question clé renvoie alors au temps : quand les mesures exceptionnelles cessent-elles de l’être ? Peut-être lorsque nous cessons de nous le demander.
Germán Beber
Politologue. Chercheur à l’Observatoire des réformes politiques en Amérique latine (IIJ-UNAM/OEA).
Enseignant à l’Université nationale d’Entre Ríos, Argentine.
X : @german_beber