En chair et en os (avatar)

En chair et en os

Collectif pour une traduction humaine

Abonné·e de Mediapart

16 Billets

0 Édition

Billet de blog 22 décembre 2025

En chair et en os (avatar)

En chair et en os

Collectif pour une traduction humaine

Abonné·e de Mediapart

Série IA et traduction - La riposte : comment agir, maintenant

Depuis juin 2025, le collectif En chair et en os a publié de nombreux témoignages de traductrices et traducteurs qui relatent les effets délétères de l’imposition de l’IA générative dans leur vie professionnelle. Après les témoignages sur les effets de l’IA sur la traduction, il est grand temps de riposter !

En chair et en os (avatar)

En chair et en os

Collectif pour une traduction humaine

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Depuis juin 2025, le collectif En chair et en os a publié de nombreux témoignages de traductrices et traducteurs qui relatent les effets délétères de l’imposition de l’IA générative dans leur vie professionnelle. Après celui d’une travailleuse du texte devenue « spécialiste en IA », qui accompagne notre prologue, nous avons dressé un état des lieux de la dépossession et du mépris à l’œuvre dans ce phénomène.  

Trois ans après la diffusion à très grande échelle de ChatGPT, il n’est plus question de se laisser déposséder et mépriser : il est temps de riposter. Nous proposons dans ce nouveau billet divers moyens d’agir : contredire les idées reçues, s’informer et informer, changer d’outils numériques, s’opposer activement aux formations à l’IA, ou encore imposer la question de l’IA dans les débats politiques, en particulier à gauche, laquelle n’a jusqu’à présent pas pris le problème à bras-le-corps.

S’informer sans relâche 

Riposter, c’est informer et, d’abord, s’informer, se documenter, opposer la connaissance aux clichés. C’est l’action centrale que notre collectif a menée, et continue de mener, depuis sa création : contrecarrer un discours rempli de prophéties autoréalisatrices, mais aussi l’attitude individuelle défaitiste consistant à dire : « De toute façon, moi, la technique, je n’y comprends rien. »  Nos trois listes de Références technocritiques sélectionnées avec soin – livres, podcasts, films, vidéos, interviews, articles de revue, etc. – sont précisément faites pour y comprendre quelque chose et acquérir les arguments nécessaires à l’élaboration d’une pensée critique et d’un contre-discours informé.

Rappelons à toutes fins utiles qu’En chair et en os effectue depuis plus de deux ans un travail de veille permanent des actualités en lien avec l’intelligence artificielle générative et les partage avec ses lecteur·ices. Nos quatre fiches-outils pour les traducteur·ices d’édition, de l’audiovisuel, libraires, éditeur·ices et le monde universitaire visent aussi à informer le plus grand nombre à propos des enjeux dans ces domaines. Aux côtés de nombreuses autres ressources (affiches pour lieux culturels, zines avec revendications, etc.), ces fiches-outils sont téléchargeables gratuitement sur le site du collectif. Chaque personne sensibilisée à la cause peut ainsi participer à la lutte, à son échelle, auprès de son réseau, dans sa région. Nous vous encourageons chaleureusement à nous aider partout où vous le pouvez : librairies, bibliothèques, écoles, sphère familiale et professionnelle, partout !

Notre collectif informe également le grand public lors d’événements, comme le Festival VO-VF de traduction littéraire à Gif-sur-Yvette depuis 2024, et les Assises de la traduction littéraire d’Arles. Les membres d’En chair et en os sont aussi régulièrement sollicités par les médias et des chercheurs.

Sur le plan institutionnel, nous avons participé en 2025 à une rencontre au Conseil économique, social et environnemental (CESE), qui a donné lieu à la publication d’un rapport, « IA : la voie citoyenne », ainsi qu’à une audition au Sénat dans le cadre d’une mission d’information sur l’intelligence artificielle et la création, par le biais des associations professionnelles dont nous sommes aussi membres. On trouvera une synthèse de cette mission ici. Et nous contribuons au groupe de travail sur l’IA d’une intersyndicale regroupant une vingtaine d’organisations professionnelles d’artistes-auteur·ices.

Enfin, En chair et en os co-organise des rencontres avec des organisations d’autres professions artistiques afin de partager nos expériences de l’impact de l’IA sur nos pratiques respectives, comme avec Les Monteurs associés en mai dernier.

Combattre les idées reçues en traduction

La profession est aujourd’hui arrivée à un certain consensus : la mal nommée « post-édition* » (ou toilettage de la sortie machine* par un humain aux compétences rédactionnelles et/ou linguistiques) n’est pas de la traduction, et rares sont les professionnel·les qui souhaitent une telle automatisation de leur profession et de leur discipline[i].

Toutefois, il devient courant d’entendre des collègues affirmer : « L’IA, je ne m’en servirai jamais pour traduire. Mais pour faire des recherches, c’est très utile. » Creusons donc la question et demandons-nous très concrètement quelle est la fiabilité des systèmes d’IA dans la recherche terminologique et documentaire, laquelle est en effet le quotidien des traducteur·ices professionnel·es. Médiocre, selon l’enquête réalisée par la BBC et rendue publique en octobre 2025, à propos de la fiabilité des résumés d’informations et d’actualités par l’IA au Royaume-Uni : 45 % des réponses contenaient au moins une erreur importante – source ou attribution erronée (31 %), absence de précision factuelle (20 %). D’autres types d’erreurs possibles sont aussi signalés : présentation d’opinions comme des faits ; ajout d’un avis subjectif absent d’un article original[ii].

Les recherches effectuées par les traducteur·ices exigent pourtant la plus grande fiabilité. Outre les erreurs mises en évidence par cette enquête, nous constatons quotidiennement dans notre pratique l’appauvrissement des informations disponibles sur Internet[iii]. Lorsque l’on cherche l’équivalent d’un terme spécifique, surtout quand il est contemporain, ou des renseignements sur un sujet donné en français, il est de plus en plus fréquent de déceler des « traductions automatiques » de l’anglais parmi les sources proposées par les moteurs de recherche. Le défaut de fiabilité des résultats obtenus est encore accru par l’imposition de systèmes d’IA dans ces moteurs, qui offrent instantanément une sorte d’abrégé de ces mêmes sources (les fameux « aperçus IA » et le « mode IA » utilisant le modèle Gemini intégré dans le moteur de recherche de Google, par exemple).

Pour des outils libres en traduction 

Les traducteur·ices technocritiques ne sont pas technophobes : la preuve, ielles utilisent moult outils numériques avec une certaine agilité et même une agilité certaine. Les suites bureautiques, évidemment, sont capitales pour ces travailleur·euses du texte : logiciel de traitement de texte, tableur pour la comptabilité (ou pour certaines tâches de traduction, notamment en jeu vidéo et en sciences humaines), diapositives pour des ateliers ou des tables rondes... Ensuite, viennent des dictionnaires plus ou moins spécialisés, des logiciels de correction, éventuellement de publication, de montage ou de design. Moins solitaires qu’on ne le croit souvent, les traducteur·ices emploient aussi des applications de sondage pour fixer une date à laquelle se réunir, de documents partagés pour collaborer sur des projets, etc. 

Les logiciels libres (c’est-à-dire non propriétaires) sont un moyen pour les traducteur·ices de se réapproprier leurs outils de production. Ils sont souvent d’une utilisation très intuitive et ne demandent pas de compétence technique particulière. En outre, ils n’empêchent aucunement de communiquer et d’échanger des documents avec des interlocuteur·ices (par exemple, nos éditeur·ices) qui continuent d’utiliser des outils propriétaires : un texte conçu sur LibreOffice ou OpenOffice (extension .odt) peut être enregistré comme un .docx (extension de Microsoft Word), et le logiciel permet généralement de lire les documents .docx. 

Pourquoi se tourner vers le libre ? Les grandes suites bureautiques propriétaires imposent désormais leur IA interne (par exemple, Copilot pour Microsoft). Chercher des alternatives libres et sans IA permet à la fois de refuser ce « compagnon » mal nommé et de ne pas financer des GAFAM qui, par ailleurs et à une échelle plus large, investissent dans les grands modèles de langage. On trouvera ici un billet très complet sur les outils libres pour les traducteur·ices. Cet autre billet (en anglais) indique comment bloquer l’IA sur un certain nombre de produits commerciaux du quotidien (Gmail, YouTube…) dont on ne s’est pas encore débarrassé.

Enfin, le contexte est favorable au passage au libre : sur les PC, Microsoft impose actuellement le passage à Windows 11 en arrêtant les mises à jour de sécurité pour Windows 10. Les associations libristes, par exemple l’April, mettent en place des événements pour accompagner les utilisateur·ices vers le passage au libre. L’excellent Framasoft publie également de nombreux conseils. 

Pratiquer le sabotage de traductions

Le 10 février 2025, à l’occasion du Contre-sommet de l’intelligence artificielle auquel il a participé aux côtés d’En chair et en os, le collectif IA-lerte générale, créé quelques semaines auparavant, a appelé les traducteurs et traductrices forcé·es de relire des sorties machine* pour des agences de traduction low cost à « saboter » leur travail.

Sabotage : ce terme, issu des traditions de luttes ouvrières, a été mûrement réfléchi en amont par ce collectif. Face à la dérégulation du marché de la traduction dite pragmatique (c’est-à-dire la traduction technique, juridique, médicale, touristique, culturelle, marketing, etc.) et à l’inaction des instances censées représenter et défendre le métier, le collectif IA-lerte générale en est arrivé à la conclusion que le sabotage est à l’heure actuelle la seule arme dont disposent les traducteur·ices indépendant·es pour se défendre face aux agences de sous-traitance à bas coût.

IA-lerte générale se réfère régulièrement au syndicaliste Émile Pouget, qui a théorisé la notion de sabotage en France à la fin du xixe siècle et auquel on doit la formule « à mauvaise paye, mauvais travail ». Dans la tradition ouvrière, le sabotage désigne une méthode d’action directe qui peut prendre de multiples formes, comme la grève du zèle ou les erreurs volontaires. Émile Pouget avait tôt mis le doigt sur le fait que le sabotage était inconsciemment pratiqué par nombre d’ouvriers et ouvrières, ne serait-ce que pour des raisons de survie élémentaire : quand on est payé trois francs six sous, a fortiori à la pièce, on évite généralement de s’échiner. Sans surprise, la situation n’a pas beaucoup changé depuis : nos discussions avec des traductrices et traducteurs forcé·es de faire de la post-édition révèlent que bon nombre d’entre elles et eux valident le maximum de phrases générées par les algorithmes de « traduction » automatique sans les modifier. Et tant pis si c’est mauvais, car quand on est mal payé et que la rémunération se fait à la tâche, impossible de faire autrement que d’aller au plus vite.

Souvent, la pratique du sabotage est tue : on se garde bien, en effet, d’aller crier sur tous les toits que l’on fait mal son travail. En appelant ouvertement les personnes exploitées par des agences de sous-traitance à saboter les commandes de traduction ubérisées, le collectif IA-lerte générale entend donc, comme Émile Pouget en son temps, politiser et redonner une portée collective à cette stratégie de survie individuelle quotidienne. Il s’agit aussi d’inverser le rapport de force pour faire fléchir, à terme, les agences de traduction recourant à l’IA comme prétexte pour sous-payer les travailleurs et travailleuses indépendant·es. Par le sabotage, le collectif souhaite également rassembler la profession autour de valeurs fortes, telles que la solidarité et l’amour du travail bien fait, rémunéré à sa juste valeur.

IA-lerte générale prévoit de publier un manuel de sabotage au début de l’année 2026, lequel contiendra différents conseils adaptés aux divers cas de figure rencontrés par les personnes travaillant pour des agences de sous-traitance en traduction. L’accent sera mis notamment sur la prudence, afin de permettre aux personnes concernées de saboter leur travail autant qu’il le faudra sans risquer de se faire prendre. Le collectif aimerait ensuite poursuivre la lutte en diffusant des témoignages anonymes de saboteurs et saboteuses sur sa page LinkedIn, réseau sur lequel il s’exprime depuis sa création pour toucher au maximum les structures confiant leurs textes à des agences de traduction, ainsi que les traducteur·ices indépendant·es qui s’y trouvent en nombre. L’objectif : rappeler aux acteurs du secteur comme au grand public qu’une agence à bas prix qui surfe sur la mode de l’IA est forcément une agence dont les prestations ne sont pas professionnelles, voire calamiteuses.

Si le terme « sabotage » demeure connoté négativement et sa pratique taboue, IA-lerte générale observe que de plus en plus de traducteur·ices déclarent ne consacrer au travail à faire que le temps correspondant à un taux horaire décent, ce qui est une forme de sabotage. Une prise de conscience qu’IA-lerte générale considère comme une première victoire.

S’organiser en coopératives de traduction sans IA

Afin de court-circuiter les prestataires techniques et agences qui généralisent le recours à la post-édition et à l’IA, s’organiser en coopérative peut permettre de renouer les liens avec les « clients finaux » – les diffuseurs de productions audiovisuelles et de jeux vidéo, par exemple – et les commanditaires de traductions techniques. Travailler au sein d’une coopérative donne aux traducteur·ices le pouvoir de négocier tarifs et délais, et de proposer des traductions garanties sans recours à l’IA.

Inutile de réinventer la poudre ! Des coopératives existent depuis longtemps dans de nombreux domaines d’activités, y compris celui de la traduction. Deux exemples parmi d’autres : en traduction et localisation de jeux vidéo, le collectif Warlocs propose depuis une dizaine d’années, des traductions multilingues de et vers 15 langues, réalisées par une cinquantaine de professionnel·les réparti·es dans plusieurs pays d’Europe.

Le collectif international Guerilla Media est actif en traduction pour l’édition, sous-titrage, relecture et interprétation. Cette coopérative féministe de traduction réunit des personnes soucieuses de faire vivre l’art de la traduction en respectant la déontologie de leur métier.

S’opposer aux formations à l’IA 

En tant qu’artiste, traducteur·ice, journaliste, graphiste et, plus généralement, travailleur·euse du secteur tertiaire, difficile d’échapper aux offres de formation professionnelle à l’IA, issues du privé comme du public. Dans le domaine de la création, ce sont par exemple l’Agecif, l’Asfored, l’agence Occitanie Livre et lecture qui proposent des formations pour optimiser son écriture grâce à l’IA. L’enseignement supérieur et la recherche universitaire ne sont pas en reste, avec des bibliothèques universitaires qui proposent par exemple d’apprendre à « améliorer son style d’écriture grâce à l’IA ».

L’objectif de ces formations est toujours le même : « comprendre » l’IA pour en éviter les « écueils », en faire un usage « raisonné », « adapté » à une pratique professionnelle « éthique et responsable ». Mais surtout, il s’inscrit dans le cadre du plan national « Osez l’IA », qui vise à introduire l’intelligence artificielle dans les entreprises à l’horizon 2030, y compris dans la création et tous les secteurs de la traduction.

Cependant, cette avalanche de formations à l’IA n’est pas une fatalité que nous – traducteur·ices et créateur·ices – devons subir sans broncher. Pour s’y opposer efficacement, il faut d’abord comprendre les présupposés sur lesquels reposent ces formations, qui peuvent se résumer en trois phrases : 1. L’IA, c’est l’avenir ; 2. Il faut comprendre comment ça marche ; 3. Elle a forcément un usage positif.

On pourra consulter la réponse à ces idées reçues ici, dans le billet détaillé d’En chair et en os sur la formation d’Occitanie Livre et lecture. D’autres outils permettent de refuser collectivement l’imposition de formations orientées idéologiquement en faveur de l’adoption de l’IA. À titre individuel, chacun·e peut aisément déserter ce type de formation. Financés par nos cotisations, nos droits à la formation sont restreints : alors, utilisons-les pour développer nos savoir-faire, pas pour abandonner notre travail à une machine faite pour nous supplanter. À titre collectif, interpellons les organismes de formation sur leur offre. Réclamons un droit à la formation digne de ce nom, qui réponde aux besoins réels des professionnels. La formation doit viser à développer nos compétences, à améliorer notre connaissance de nos statuts et de nos droits, pour gagner en autonomie et en pouvoir de négociation face à nos commanditaires.

Il est impératif que les organismes de formation prennent leurs responsabilités face au déferlement de programmes vantant les mérites de l’IA. Ces organismes peuvent, tout simplement, ne pas proposer ce type de formation. Ou mieux, s’exprimer publiquement contre l’imposition de l’IA à des secteurs professionnels entiers. Enfin, ils peuvent développer des formations réellement critiques, qui outillent les participants sur le cadre juridique de l’IA, sur les problèmes écologiques, sociétaux et cognitifs que pose cette technologie, et sur ses conséquences néfastes sur nos métiers.

Sur le plan de la formation initiale, les masters de traduction d’édition de Paris-Cité et d’Avignon ont ouvert la voie à ce type de formation critique, souhaitons qu’elles se multiplient à l’avenir.

Se défendre avec le droit 

L’IA générative est un « grand banditisme légal », nous confiait en off une journaliste travaillant sur le sujet dans le domaine éditorial. Les technologies algorithmiques se fondent en effet sur un pillage massif et continu d’œuvres qui sont pourtant, en théorie, protégées par le droit d’auteur. Le droit moral et patrimonial des artistes (textuels, visuels, musicaux, etc.) est ainsi bafoué. Cette appropriation privée est rendue possible par une aberration légale : l’exception TDM (Text and Data Mining, « fouille de textes et de données »), prévue par la directive « droit d’auteur » adoptée par le Parlement européen en 2019 et transposée en droit français, autorise la fouille de textes et de données à des fins éventuellement commerciales et plus uniquement scientifiques, sauf à ce que l’auteur signifie clairement son refus (l’opt-out).

Dans les faits, l’exception de fouille prévue par la directive a largement permis l’entraînement des grands modèles de langage, qui sont au fondement des moteurs d’intelligence artificielle générative, par ce qui peut être qualifié de pillage massif de nos œuvres. N’oublions pas cependant que les lois peuvent être changées quand elles sont mauvaises : c’est même la marche de l’histoire.

En l’occurrence, il y a notamment lieu de s’interroger sur la conformité de l’exception de fouille et du principe de l’opt-out avec la convention de Berne sur le droit d’auteur[iv], traité international dont la France est signataire, ou encore avec le traité de l’Organisation mondiale de la propriété intellectuelle (OMPI) sur le droit d’auteur (1996), ratifié par la France en 2008, au titre desquels les éventuelles exceptions au droit d’auteur ne doivent pas porter atteinte à l'exploitation normale de l'œuvre, ou porter indûment préjudice aux intérêts légitimes de l'auteur. Ce principe dit du « triple test » est d’ailleurs rappelé dans la directive de 2019 précitée[v]. Le préjudice semble caractérisé, lorsqu’on sait tout ce que les auteur·ices ont à perdre avec le boum de l’IA générative, dont leur travail, tout simplement.

La récente « Concertation entre les développeurs de modèles d'IA générative et les ayants droit culturels », organisée par le ministère de la Culture, n’a abouti à rien de concret, hormis une volonté floue de créer « un cercle vertueux de création de valeur où chacun trouve sa juste place[vi] ».

Face à la difficulté de faire la preuve de l’aspiration des œuvres pour l’entraînement massif des modèles de langage, une proposition de loi relative à l’instauration d’une présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle a été déposée au Sénat le 12 décembre 2025. Les motifs de cette proposition, présentée par la sénatrice Laure Darcos et ses collègues, sont clairs. Selon ces sénateurs, le moissonnage de contenus culturels protégés par le droit d’auteur « s’effectue sans autorisation préalable, ni rémunération de leurs titulaires. Ces pratiques, qui s’apparentent à un pillage à très large échelle, posent un double problème. Tout d’abord, les titulaires de droits ne savent pas si, quand et comment leurs œuvres sont exploitées ; ces informations sont détenues par les seuls fournisseurs d’IA. […] Sans transparence, les droits ne peuvent pas s’exercer, le juge ne peut pas trancher, le régulateur ne peut pas contrôler, la démocratie ne peut pas fonctionner. Ensuite, les ‘‘données-œuvres’’ qui servent à nourrir les modèles d’IA sont le seul élément de leur chaîne de valeur dont la gratuité est tenue pour acquise par les fournisseurs d’IA. Or il est légitime que leurs auteurs revendiquent une part de la richesse générée, car, sans leurs créations, les modèles d’IA ne pourraient exister. »

Constat courageux et sans appel, mais aussi mû par une volonté de trouver un compromis entre les auteurs et les entreprises de la tech. En effet, la présomption d’utilisation des œuvres, également évoquée par le ministère de la Culture, « viserait à essayer d’aider les secteurs culturels et médiatiques à négocier une rémunération en contrepartie de l’utilisation de leurs livres, articles, images ou musiques protégés par le droit d’auteur pour entraîner les modèles d’IA[vii] ». C’est la stratégie de la compensation financière qui, en fin de compte, viendrait légitimer le pillage des œuvres de l’esprit, dont font partie les traductions. Stratégie à laquelle notre collectif s’oppose résolument.

L’AI Act et l’obligation de transparence

Si l’« AI Act » (règlement européen sur l’intelligence artificielle) a instauré une obligation de transparence des données utilisées, celle-ci est mise en balance avec la notion de « secret des affaires », laquelle bloque à l’heure actuelle toute transparence effective et rend le processus d’opt-out impossible à appliquer concrètement. En novembre 2025, la Commission européenne a même annoncé la « Simplification des règles de l’UE dans le domaine du numérique » : sous la pression des lobbyistes de la tech, les exigences réglementaires de l’AI Act, qui étaient déjà peu contraignantes, ont encore été réduites pour « faire économiser des milliards d’euros aux entreprises et stimuler l’innovation[viii] ». La protection des auteur·ices et de leurs œuvres est officiellement mise au second plan par l’Union européenne[ix].

À l’échelle du contrat de traduction conclu pour chaque livre avec nos éditeur·ices, les clauses de l’Association des traducteurs littéraires de France (ATLF) protègent a minima la profession. Elles sont au nombre de trois, à faire figurer sur les contrats de traduction : 

  1. Une clause de non-usage de l’IAG pour l’établissement de la traduction, avec engagement réciproque de la maison d’édition et de la personne qui traduit.
  1. Une clause de non-usage de l’IA dans l’exploitation des droits cédés. Exemple : si votre traduction est adaptée en audiolivre, vous vous opposez au fait qu’elle soit lue par une IAG.
  1. Une clause d’opt-out (non-consentement d’un auteur à l’utilisation de son œuvre) : la traductrice ou le traducteur s’oppose à l’usage de son œuvre à des fins d’entraînement de modèles d’IAG, et la maison d’édition a une obligation de moyens pour faire valoir cette opposition.

Il s’agit là du minimum que chacun·e d’entre nous peut exiger : demander clairement à nos donneurs d’ordre de faire ajouter ces clauses dans nos contrats de traduction, si elles n’y figurent pas déjà. De nombreux éditeurs éclairés ont déjà cette pratique vertueuse, dans les grands groupes comme chez les indépendants ; c’est sans conteste le modèle à suivre. C’est aussi le cas d’agences littéraires reconnues, qui ont depuis longtemps ajouté de telles clauses à leurs contrats de cession de droits (notamment dans le domaine anglo-saxon, mais aussi en France : bravo à elles).

Signalons quelques actions en justice bienvenues. L’organisme allemand de gestion collective des droits des compositeurs et paroliers (GEMA) a obtenu en novembre 2025 une importante victoire juridique contre OpenAI. La société de Sam Altman a été reconnue coupable par le tribunal de Munich d’avoir « porté atteinte aux droits d’exploitation protégés par le droit d’auteur » concernant neuf chansons, dont les paroles ont été reproduites à l’identique lors d’une réponse donnée par ChatGPT à un prompt (ou « requête ») sans autorisation et sans que l’outil ait pu les rechercher sur Internet, de sorte qu’il ne faisait pas de doute qu’il ait été entraîné avec ces données, les ait mémorisées et reproduites. Sans rentrer dans des détails techniques et juridiques, la décision allemande a également rejeté la fameuse exception de fouille, sauf pour la toute première phase de compilation des données utilisées pour entraîner le modèle de langage. OpenAI a bien entendu contesté cette décision.

En outre, le 3 avril 2025, un tribunal hongrois a saisi la Cour de justice de l’Union européenne (CJUE) d’une « question préjudicielle[x] », afin de pouvoir statuer dans un dossier opposant une société (Like Company) à Google. La Cour de justice devra notamment se prononcer sur la question de savoir si le processus d’entraînement d’un chatbot alimenté par un modèle de langage constitue une reproduction des données, et si celle-ci entre dans le champ de l’exception de fouille[xi].

Dans une perspective plus large, l’usage massif de l’IA interroge sur le respect du droit à l’intégrité physique et morale de tout être humain. Au Danemark, le projet de loi de « copyright personnel » est intéressant, qui vise à protéger la voix et l’image de chaque citoyen (notamment contre les deepfakes)[xii]. Cette loi élargirait ainsi la propriété intellectuelle à l’identité personnelle biométrique. Aux États-Unis, l’ELVIS Act (Ensuring Likeness Voice and Image Security, « Garantir la sécurité de l’apparence physique, de la voix et de l’image ») a été promulgué en mars 2024 dans le Tennessee pour protéger les artistes contre l’utilisation synthétique de leur voix.

Conditionner les aides publiques au non-usage de l’IA

La création, notamment la traduction, bénéficie depuis longtemps de programmes d’aides publiques dans de nombreux pays. Il est impératif que ces aides ne soient pas attribuées à des traductions et des productions ayant mis en jeu, partiellement ou intégralement, quelque forme d’IA que ce soit.

En Espagne, depuis 2024, les aides publiques à la culture, ainsi que les prix nationaux, sont officiellement conditionnés au non-usage d’IA génératives : les postulants signent une déclaration sur l’honneur certifiant que leur œuvre n’a pas été générée par IA ; un geste symbolique fort, assumé par le ministère de la Culture. À noter également, toujours côté espagnol, l’avant-projet de loi IA approuvé par le gouvernement en mars 2025, qui impose de très lourdes amendes en cas d’infractions graves et très graves à certains usages prohibés de l’IA (jusqu’à 35 millions d’euros). Saluons également le travail de l’ombre de la Coalition « IA respeta Cultura[xiii] », composée de traducteurs, illustrateurs, correcteurs, danseurs, dramaturges et travailleurs de l’audiovisuel fédérés. Leur action a permis de faire retirer en 2025 un décret royal autorisant les licences collectives sans dialogue préalable avec le secteur culturel, car ce ne sont pas les États ou les gouvernements qui prennent ex nihilo de bonnes décisions comme par magie, mais la société civile organisée collectivement qui les y pousse par le dialogue, l’information et le rapport de force.

En France, notons que certains prix de traduction littéraire prestigieux s’apprêtent à inclure dans leurs règlements l’exclusivité d’une « traduction humaine » pour concourir : autrement dit, une traduction non générée par des algorithmes. Nous nous en félicitons et espérons que bien d’autres prix culturels feront rapidement de même.

Solidarité interprofessionnelle

Les traducteur·ices sont régulièrement au contact des métiers concernés par les besoins en traduction, dans de nombreux domaines de la vie professionnelle : industrie, services, création artistique. Souvent perçu·es, à juste titre, comme en première ligne face au déploiement tous azimuts de l’IA, nous sommes malheureusement bien placé·es pour en connaître les effets dévastateurs. Il nous revient donc d’être solidaires des professions avec lesquelles nous sommes directement en contact et d’alerter sans relâche sur les risques que fait courir l’IA sur nos pratiques à tous et toutes, et agir de concert dans cette lutte.

Des plans sociaux visibles ou invisibles sont en cours partout ! Du côté de la presse, ce sont par exemple 18 postes de correcteur·ices menacés au magazine Le Point ; à L’Équipe, la totalité du service correction risque d’être supprimée au profit de logiciels d’IA, c’est-à-dire au bénéfice d’entreprises privées du numérique. Les syndicats sont mobilisés. Il faut soutenir les camarades sur les piquets de grève et lors de rassemblements.

Parole aux correcteur·ices de la CGT[xiv]

« Il était probable qu’une technologie promue par les géants de l’économie numérique n’irait pas de pair avec un quelconque progrès social. C’est confirmé. L’implantation de l’intelligence artificielle a lieu malgré tout et se fait contre celles et ceux qui produisent, pour les contrôler, les surveiller et les exploiter un peu plus.

« Tous les métiers de l’écrit – écriture, traduction, édition, correction… – sont remis en cause depuis plusieurs années, par des propagandistes de l’IA. « [Correcteur] est l’un des métiers les plus compliqués aujourd’hui, parce que l’IA va mieux le faire » (Xavier Niel, en 2024, lors d’un séminaire d’entreprise du Groupe Le Monde). C’est bien sûr faux, car notre travail ne peut pas être reproduit par des algorithmes. Il exige compréhension et réflexion, aussi bien pour appliquer de manière raisonnée la typographie, l’orthographe, la grammaire et la syntaxe que pour vérifier les informations données dans un texte, la cohérence d’un récit et comprendre l’intention des auteurs et autrices tout en faisant preuve d’esprit critique. L’IA n’offre que des ersatz de traductrice ou de relecteur, mais il est nécessaire de faire croire à ses capacités pour imposer des outils.

« Si l’IA ne nous remplacera pas, elle aboutira en revanche à une dégradation de nos conditions de travail, à une perte de sens et d’autonomie, à une intensification, voire à une transformation des tâches et à une baisse d’exigence. En presse, les patrons ne manquent pas d’idées : introduction de l’IA dans des outils de travail sans consultation des travailleuses et travailleurs, correction de textes issus partiellement de l’IA, suppression de services de correction pour devenir des services de “supervision” et demande d’enrichissement de l’IA par les correcteurs et correctrices pour pouvoir les remplacer à terme dans certains canards. Dans l’édition, l’utilisation est moins assumée, mais les rumeurs s’accroissent concernant la correction, alors que la chaîne du livre est déjà atteinte : l’IA est parfois utilisée discrètement pour générer des illustrations, vivement suggérée comme aide à la traduction, voire soupçonnée de la remplacer. On peut parler de grand nivellement par le bas.

« Face à cette offensive, que pouvons-nous faire et quelles sont nos armes ? Correctrices et correcteurs, qui ont affronté les crises de la presse, le paiement dévoyé en droits d’auteur et l’ubérisation, en particulier avec de longs procès aux prud’hommes victorieux, connaissent ces situations.

« Opposons-nous aux discours béats sur l’IA, dénonçons leur vacuité et leurs objectifs. Agissons avec nos moyens : rassemblement, boycott, recours juridique, occupation, blocage, grève… tout est possible. Organisons-nous, avec minutie et en nombre ! Pour ce faire, nous pensons que l’outil syndical est le moyen idéal, et nous appelons tous·tes les concerné·es à le renforcer. »

La section des correctrices et correcteurs du Syndicat général du Livre et de la communication écrite (SGLCE-CGT)

Notre soutien doit également être sans faille pour les libraires, qui sont aussi menacé·es, que ce soit par des attaques de l’extrême-droite jusque dans leurs locaux (lire le communiqué de Paris Librairies) ou par les tentatives de suppression des subventions publiques par les élu.es de droite.

Et si vous vous demandez quel rapport il y a entre l’IA et l’extrême-droite, en voici un exemple : l’IA est aussi une arme de surveillance, promue par les technofascistes de la Silicon Valley[xv]. Et un autre, de ce côté-ci de l’Atlantique : les accointances silencieuses de ce milieu avec des milliardaires tels que Pierre-Édouard Stérin, qui finance l’extrême-droite[xvi].

Imposer le sujet dans le champ politique

La France reste à la traîne politiquement, y compris du côté de la gauche et des écologistes, dont on comprend toujours aussi mal qu’ils n’aient pas fait de la lutte contre l’automatisation par algorithmes une priorité de leurs programmes. Nous le disons sans relâche depuis plus de deux ans, l’un des axes du collectif En chair et en os est la politisation de la question de l’IA générative. Or, à sujet politique... réponses politiques. Qui se doivent d’être à la hauteur de la gravité des enjeux sociaux, écologiques, démocratiques et anthropologiques posés par cette idéologie du tout-IA.

Rappelons avant tout qu’en France (c’est aussi valable pour bien d’autres pays), le développement à marche forcée de l’IA partout est la conséquence directe de politiques publiques agressivement pro-tech qui s’insèrent dans une stratégie économique. La « Stratégie nationale pour l’IA » en place depuis 2017, aux côtés du récent programme « Osez l’IA », n’est pas pro-innovation comme le stipulent ses éléments de langage officiels (rappel : nous sommes traducteur·ices !), mais vient en soutien inconditionnel à la French Tech et à sa constellation de start-up, pour certaines devenues licornes, comme Mistral AI et son chatbot « Le Chat ». Allez donc le lire directement dans le texte, sur le site officiel du gouvernement français : « Lancé ce mardi 1er juillet [2025], le plan national “Osez l’IA” vise à accélérer la diffusion de l’intelligence artificielle (IA) dans toutes les entreprises françaises, et en particulier dans les petites et moyennes entreprises et les entreprises de taille intermédiaire. »

Cette stratégie nationale ne concerne évidemment pas que la culture, mais tous les services publics : agences pour l’emploi, La Poste, Caisse d’allocations familiales, impôts, vidéosurveillance algorithmique, cours de français pour les exilés allophones, etc. Citons à titre d’exemple (et ils sont nombreux) le très récent accord passé entre Mistral AI et le CNRS pour proposer le chatbot « Emmy » à ses agents. Il s’agit d’une réduction drastique des coûts, un coup de tronçonneuse algorithmique appliqué à tous les champs de la société, sur le modèle de la Big Tech états-unienne. 

Rappelons le « Sommet pour l’action sur l’Intelligence Artificielle » organisé par l'Élysée à Paris en février 2025 et les contrats passés avec de nombreux géants de la Tech (109 milliards d’eurosd’investissements supplémentaires alloués à ce seul secteur) ; le développement des gigadatacenters, grâce notamment à ce cheval de Troie qu’est l’article 15 du projet de loi de simplification économique qui, en contournant les normes environnementales, fait entrer ces centres de données dans la catégorie « projet d’intérêt national majeur » (suivre la campagne de la Quadrature du Net à ce sujet). Dans le même temps, le devoir de vigilance pour les entreprises est officiellement affaibli à l’échelle européenne. Quand l’Union européenne et la France détricotent la protection sociale et écologique, c’est la porte ouverte au pire.

La « stratégie nationale » de la France vise à créer les conditions d’un marché afin que tout soit monnayable au profit des développeurs d’IA, qu’il s’agisse de traduction, de création ou de services publics. Or accepter la constitution d’un marché, c’est capituler. Et il n’est pas question de capituler ! Pour ce faire, les partis de la gauche sociale et écologique doivent arrêter de se taire à propos de l’immixtion de l’IA dans tous les domaines de la société, professionnels et intimes, et imposer ce thème dans le débat politique.

C’est en particulier la question du rapport au travail qui doit être remise au cœur du débat, afin de lutter contre sa dégradation systémique. Comme la publication de nos témoignages le montre, les traducteur·ices en savent quelque chose. Ce thème du travail, la gauche doit à nouveau s’en emparer, ainsi que le soulignent Nastasia Hadjadji et Olivier Tesquet, auteurs d’Apocalypse Nerds (2025), dans cet entretien réalisé par Blast[xvii]. C’est d’autant plus à la gauche de le faire que nous sommes confronté·es à une nouvelle forme de fascisme, le technofascisme.

Riposter, c’est s’opposer à l’imposition de l’IA dans nos vies et dans nos métiers. Le discours qui dissocie les fonctionnalités d’une technique de ses finalités politiques et économiques fait partie des stratégies des promoteurs d’IA pour faire croire à son inévitabilité. Politiser la question de l’IA, c’est refuser de limiter le débat à la question de l’utilité (ou non) d’une technique. C’est aussi résister à l’idéologie délétère qui la promeut. Les tendances fascistes des dirigeants des grandes entreprises de la Tech (Sam Altman, Peter Thiel, Elon Musk…) ne sont plus un secret pour personne : ces mêmes entreprises vendent des outils de surveillance algorithmique de masse aux États dits libéraux[xviii]. Il y a un continuum entre l’usage de l’IA à des fins de traduction et ses usages militaro-sécuritaires. Admettre l’un, c’est cautionner l’autre ; s’opposer à l’un, c’est résister à l’autre. C’est bien sur le terrain du travailque nous pouvons le mieux dénoncer la tentative des empires de la Tech de s’immiscer dans tous les aspects de la vie et y résister. 

Comme l’a fait le collectif Déborder Bolloré à propos de la façon dont l’extrême-droite s’empare de la chaîne du livre, il faut documenter les rapports entre les technologies d’IA et le fascisme, par exemple en relayant le travail de collectifs comme Hiatus, la Quadrature du net ou Le Mouton numérique.

Il faut interpeller les élu·es et les organisations politiques pour que la lutte contre l’IA et son monde trouve sa place indispensable dans l’agenda politique de la gauche. Des initiatives existent déjà, comme celle du collectif Désescalade numérique et ses « 10 propositions pour une désescalade numérique » en vue des élections municipales de 2026. La lutte contre l’IA est réaliste, politique, bénéfique, non illusoire, déterminante.

Internationaliser la lutte contre l’IA en traduction

À la solidarité interprofessionnelle, il faut ajouter la solidarité internationale car la lutte contre l’IA en traduction ne saurait se limiter à un seul pays. Il est indispensable de s’organiser au niveau international, notamment européen. Les coups de boutoir des développeurs américains d’IA contre les réglementations européennes sont facilités par la faiblesse – pour ne pas dire la soumission – de la Commission européenne à leur égard. L’actuelle remise en cause du Règlement général sur la protection des données (RGPD), au prétexte de ne pas entraver le développement d’entreprises d’IA en Europe, est l’occasion d’unir à l’échelle du continent européen, et pas seulement de l’UE, toutes les initiatives visant à dénoncer et combattre tout ce qui favorise l’imposition de l’IA en traduction.

Il nous est aussi indispensable d’entretenir des liens internationaux avec les professions directement concernées par les traductions que nous effectuons. Dans le champ artistique en général, le collectif hispanophone Arte es Ética réunit, entre autres, des illustrateur·ices, graphistes, photographes, peintres et artistes du cinéma d’animation d’Espagne et d’Amérique latine. Ses membres informent des effets de l’IA sur la création artistique et luttent pour le respect des droits humains.

Toujours en Espagne, l’ATRAE, l’association des traducteur·ices de l’audiovisuel, a lancé, fin novembre 2025, une grande campagne en faveur de la traduction humaine, en appelant à sensibiliser à cette question les autres métiers du cinéma et de l’audiovisuel (scénaristes, cinéastes, comédien·nes, producteur·ices, institutions, grand public). Un manifeste et plusieurs vidéos sont consultables sur le site Por una traducción humana.

Au Québec, un collectif d’organisations syndicales réunissant plus de 25 500 artistes, créateur·ices, interprètes, artisan·es et technicien·nes de l’audiovisuel et de la musique, directions et groupements de maisons d’édition, a publié en juin 2025 un manifeste intitulé « L’art est humain ».

En chair et en os se mobilise pour favoriser l’émergence d’une internationale des traducteur·ices contre la généralisation de l’IA dans nos métiers

En résumé, pourquoi l’IA ?

« Parce que », semblent répondre sur un ton péremptoire développeurs et gouvernements afin d’imposer une technologie défectueuse, à la rentabilité douteuse, mais réellement dangereuse. Comme l’écrit le journaliste Thibault Prévost, spécialiste des nouvelles technologies, « il n’y a pas de marché de l’IA, rien qu’une poignée d’entreprises qui fait mine de gagner de l’argent le temps d’en finir avec la démocratie[xix] ». L’objectif est néanmoins de convaincre l’être humain que ses capacités cognitives sont inférieures à celle de la machine, de l’amener à abdiquer son pouvoir de réflexion et de création.

En traduction, nous savons désormais que l’IA ne fonctionne pas, mais on cherche coûte que coûte à nous l’imposer et à nous avoir par la lassitude. Nous ne sommes pas impuissants. Il s’agit à présent de reprendre en main notre métier, de nous émanciper d’un faux progrès. Agir ainsi bénéficiera non seulement à notre pratique, mais aussi à l’ensemble de la société.

Ne pas se laisser faire, riposter, s’émanciper des illusions de progrès pour rebâtir une société vraiment humaine. Nous, traducteur·ices, qui tissons des liens quotidiennement, pouvons et devons y contribuer.

Notes

[i] Voir les enquêtes 2022 et 2025 de l’ATLF, ainsi que l’enquête 2024 de l’Association pour la traduction en sciences sociales (ATESS), bientôt disponible sur le site de l’association.

[ii] « Audience Use and Perceptions of AI Assistants for News », enquête coordonnée par l’Union européenne de radiodiffusion (UER), sous la direction de la BBC (consulté le 4 décembre 2025).

[iii] Voir aussi Hubert Guillaud, « Vers un Internet plein de vide ? », Dans les algorithmes, 13 janvier 2025.

[iv] Article 9 de la Convention de Berne, modifiée le 28 septembre 1979.

[v] « Les exceptions et limitations prévues dans la présente directive tendent vers un juste équilibre entre les droits et les intérêts des auteurs et autres titulaires de droits, d'une part, et des utilisateurs, d'autre part. Elles ne peuvent s'appliquer que dans certains cas particuliers qui ne portent pas atteinte à l'exploitation normale de l'œuvre ou autre objet protégé ni ne causent un préjudice injustifié aux intérêts légitimes des titulaires de droits. » Directive (UE) 2019/790 DU PARLEMENT EUROPÉEN ET DU CONSEIL du 17 avril 2019 sur le droit d'auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE, considérant no 6.

[vi] « Concertation entre fournisseurs d’IA et ayants droit : un espace de dialogue et de négociation structuré mais un partage de la valeur encore insuffisant », communiqué de presse, Ministère de la Culture, 28 novembre 2025.

[vii] « IA et droit d’auteur : la ministre Rachida Dati envisage une loi », Le Monde, 1er décembre 2025.

[viii] Voir « Proposition de règlement omnibus numérique sur l’IA », Commission européenne, 19 novembre 2025.

[ix] Voir aussi le communiqué du Conseil européen des associations de traducteurs littéraires (CEATL), 7 octobre 2025.

[x] Question posée, lors d’un procès, par une juridiction nationale à la CJUE sur l’interprétation ou la validité des règles de droit de l’Union européenne.

[xi] CJUE, Cour, 3 avril 2025, C-250/25.

[xii] Voir « Le Danemark lutte contre les hypertrucages, ou “deepfakes”, mettant en avant le droit d'auteur »,  Euronews, 3 juillet 2025.

[xiii] Voir aussi le manifeste de l’Alianza Audiovisual, 2 octobre 2024.

[xiv] Nous relaierons bientôt des textes d’autres professions sur ce blog.

[xv] Voir notamment Kate Crawford, Contre-atlas de l’IA, Zulma, 2022 ; Thibault Prévost, Les Prophètes de l’IA, Lux, 2024 ; Mathilde Saliou, L’Envers de la tech, Éditions Les Pérégrines, 2025.

[xvi] Voir la synthèse de l’investigation réalisée par L’Humanité, 19 juillet 2024.

[xvii] En particulier de 1.18.00 à 1.19.35.

[xviii] Voir notamment Alexandre Piquard, « La Silicon Valley prend un virage militaire inédit, de Google à Palantir, Le Monde, 6 septembre 2025, ainsi que le chapitre 6 (« L’État ») du livre de Kate Crawford, Contre-atlas de l’IA, p. 212-243.

[xix] Thibault Prévost, « L’intelligence artificielle générale n’aura pas lieu », Arrêt sur images, 30 novembre 2025 (dans la conclusion).

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.