En chair et en os (avatar)

En chair et en os

Collectif pour une traduction humaine

Abonné·e de Mediapart

13 Billets

0 Édition

Billet de blog 8 juillet 2025

En chair et en os (avatar)

En chair et en os

Collectif pour une traduction humaine

Abonné·e de Mediapart

« Traduction automatique » des publications scientifiques

La traduction dopée à l’IA est généralement présentée comme « la » solution pour améliorer le rayonnement à l’international de la recherche française, alors qu’elle vise essentiellement à réduire les coûts, au détriment de la qualité de la traduction et de nos conditions d’exercice. La réalité, c’est que la traduction au rabais donnera de la science au rabais : la recherche mérite mieux.

En chair et en os (avatar)

En chair et en os

Collectif pour une traduction humaine

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Par le collectif IA-lerte générale*, avec le soutien du collectif En Chair et En Os

Nous avons lu avec consternation l’article de Nicolas Chevassus-au-Louis intitulé « L’hégémonie de l’anglais comme langue scientifique est-elle inéluctable ? », publié dans Médiapart le 1er juin 2025, qui conclut que « dès que la traduction atteindra une qualité ne nécessitant plus qu’une relecture par un ou une spécialiste, il sera possible que l’hégémonie de l’anglais comme langue scientifique prenne fin ». Un article de plus – un article de trop – qui fait état d’informations non fondées et s’inscrit dans le traitement médiatique habituel de la traduction automatique dopée à l’IA, présentée comme « la » solution aux problèmes et enjeux de traduction. Or, ce narratif est en totale contradiction avec la réalité observée par de nombreuses traductrices et traducteurs, dans le domaine des publications scientifiques comme ailleurs.

Traduire les sciences, avec quels outils ?

Commençons par les bases et un peu de contexte : la traduction est un exercice de transfert du sens. Elle s’appuie sur le contexte : qui parle, de quoi, à qui, de quelle manière, à quelle occasion, dans quel but, etc. Il ne s’agit pas d’une simple substitution de mots par d’autres, et encore moins d’une approximation statistique calculée par un algorithme à partir de données existantes – souvent issues d’un pillage généralisé – et reposant uniquement sur le cotexte, c’est-à-dire sur les éléments qui précèdent et suivent chaque mot du texte à traduire. Traduire nécessite la maîtrise des langues source et cible et, bien évidemment, du sujet traité. Des connaissances interculturelles fines sont également requises, d’une part car on n’exprime pas le monde dans une langue comme on l’exprime dans une autre langue, d’autre part car quantité de mots, voire de réalités, n’existent tout simplement pas dans certains idiomes, et nécessitent par conséquent de nombreux ajustements pour être retranscrits et compris. La traduction est omniprésente et essentielle : droit, finances, jeux vidéo, audiovisuel, sciences et techniques, marketing, formation, etc. – la littérature, minoritaire, n’en est que la partie visible.

Pour éviter le classique procès en technophobie ou en luddisme, précisons tout de suite que les traductrices et traducteurs ont abandonné depuis longtemps la plume et le parchemin pour les outils informatiques, parmi lesquels les logiciels de TAO (traduction assistée par ordinateur), que nous utilisons au cas par cas pour les documents et domaines qui s’y prêtent (le recours à la TAO est loin d’être une pratique majoritaire en sciences humaines et sociales et en traduction muséale, par exemple). Ces logiciels d’archivage de notre travail nous permettent notamment de réutiliser nos propres traductions et nous aident à gérer la terminologie grâce aux glossaires spécialisés que nous constituons sur mesure. Ils sont fiables, stables et n’ont pas besoin d’une IA ni même d’une connexion internet pour fonctionner.

Le problème, c’est que la généralisation de ces logiciels s’est accompagnée d’une dégradation de nos conditions de travail et de nos revenus : les tarifs « proposés » par les grosses agences de traduction (indispensables pour quantité d’entre nous, faute de réseau, et souvent ubérisées et plateformisées) sont les mêmes depuis vingt ans, la traduction étant payée à la pièce (c’est-à-dire au mot, à la ligne, à l’idéogramme, etc.), et non au temps passé. L’argument justifiant cette stagnation était le gain de productivité supposément apporté par la TAO.

La « traduction par algorithmes », incompatible avec l’éthique de la recherche ?

La situation a encore empiré ces dernières années avec l’arrivée de la traduction automatique dopée à l’IA et de la « post-édition », c’est-à-dire la correction de sorties machine générées par une IA. Au départ réservée à certains textes formatés (rédigés selon des règles toujours identiques, comme c’est le cas par exemple des bulletins météo) ou destinés à un usage interne, la post-édition est maintenant utilisée pour tous types de documents, y compris dans des domaines très spécialisés, comme le marketing et la littérature, ou très sensibles, comme le nucléaire.

Les sorties machine, outre leur absence de déterminisme et, par conséquent, leur manque de répétabilité (la traduction d’une même phrase peut changer d’une fois sur l’autre), posent de nombreux problèmes de qualité. Les textes traduits automatiquement sont truffés d’erreurs : terminologie erronée ou incohérente, erreurs de sens et contresens, omissions, ajouts, élisions, traduction sans rapport avec le texte original. Ajoutons à cela les problèmes de style (structures calquées sur la langue source) et l’absence d’adaptation culturelle sur le fond comme sur la forme, et on obtient un truc infâme et illisible qu’on nous demande de corriger pour une misère : la post-édition est payée 30 à 50 % du tarif d’une traduction, alors qu’elle demande au moins autant de travail. 

Les conséquences sont multiples : intensification du travail (travailler plus sur le même laps de temps, tout en gagnant moins), fatigue liée à la lutte contre le biais d’ancrage (chasse à des erreurs que nous n’aurions jamais commises et qui influencent notre jugement), perte de sens (nous n’avons pas choisi ce métier pour corriger des sorties machine), perte de compétences (à force de relire des sorties machine), perte du plaisir de traduire (la post-édition nous vole notre premier jet, élément essentiel du processus d’appropriation du texte source), qualité empêchée (impossible de livrer une traduction correcte dans ces conditions) et souffrance associée. Faute de pouvoir vivre décemment de leur travail, nombre d’entre nous jettent l’éponge et changent de métier.

Au-delà des aspects sociaux et de qualité évoqués ci-dessus, élargissons maintenant le débat aux problèmes juridiques et environnementaux posés par la traduction automatique et la post-édition, et revenons au sujet de l’article de Mediapart, à savoir la recherche : dans quelle mesure une technologie reposant sur le pillage de données et posant des risques pour la confidentialité des données est-elle compatible avec le code de déontologie et les bonnes pratiques du secteur ? Dans quelle mesure la consommation d’eau et d’énergie des data centers ou l’extraction dans des conditions discutables des matières premières nécessaires à leur construction sont-elles compatibles avec les objectifs de développement durable des universités et centres de recherche ?

Passons ensuite à la conclusion de l’article, qui part du principe que la traduction finira par atteindre une qualité suffisante : qu’est-ce qui permet d’affirmer que la traduction automatique va s’améliorer, ou qu’elle s’améliorera suffisamment ? Selon Thierry Poibeau, directeur de recherche au CNRS et spécialiste du sujet, il y a tout lieu de penser qu’on a atteint un plateau, puisque, par définition, les systèmes statistiques ne peuvent produire que des résultats statistiques, c’est-à-dire des textes à mille lieues de ce que produiraient des traducteurs et traductrices. Les moteurs de traduction automatique étant par ailleurs alimentés avec des textes dont la qualité décroît, la qualité ne peut que continuer à baisser : c’est ce que l’on appelle l’effondrement des modèles, un sujet qui inquiète actuellement beaucoup les développeurs.

S’attaquer aux racines du problème

Au lieu de présenter la traduction humaine comme un goulot d’étranglement limitant le rayonnement à l’international de la recherche française, il vaudrait mieux s’attaquer aux racines du problème en donnant aux chercheurs et chercheuses, tout comme aux traducteurs et traductrices, le temps et les moyens nécessaires.

Ces dernières années, différentes instances et institutions ont lancé des projets de développement d’outils de traduction automatique dans le domaine de la traduction scientifique, y compris en sciences humaines et sociales.  Ces initiatives destinées à « favoriser le multilinguisme de la production scientifique » visent essentiellement à réduire les coûts de traduction, et n’atteignent pas forcément leurs objectifs : la mauvaise qualité de la traduction automatique est parfois telle qu’aux coûts de l’outil et de la post-édition s’ajoute celui de la retraduction, qui doit souvent être réalisée dans des délais très (trop) courts.

On n’améliorera pas les conditions de travail des uns en dégradant celles des autres, alors que leurs difficultés respectives trouvent leur origine dans les mêmes écueils : vouloir toujours tout plus vite et moins cher, la qualité devenant secondaire – que l’on songe aux nombreuses revues prédatrices et au nombre croissant de rétractations de publications. On peut notamment citer l’Asian Journal of Medicine and Health, tristement célèbre pour la publication d’un article ouvertement satirique intitulé « SARS-CoV-2 was Unexpectedly Deadlier than Push-scooters: Could Hydroxychloroquine be the Unique Solution? » (« Contrairement aux prévisions, SARS-CoV-2 est plus létal que les trottinettes : l'hydroxychloroquine pourrait-elle être la seule solution ? ». L’ampleur du phénomène est telle que le CNRS « encourage ses scientifiques à ne plus payer pour être publiés ».  Par ailleurs, les travaux d’Elisabeth Bik, spécialiste de l’intégrité scientifique, ont mis en évidence des centaines d’articles de recherche douteux.

La traduction au rabais donnera de la science au rabais, et la recherche mérite mieux que de la traduction automatique : sérieusement, quel chercheur ou chercheuse peut vraiment avoir envie de faire traduire automatiquement un article amoureusement rédigé et destiné à présenter les résultats de plusieurs mois ou années de travail ?

Nous invitons donc les journalistes qui souhaitent parler de la traduction automatique à contacter des traducteurs et des traductrices qui connaissent le sujet au lieu de reprendre le discours officiel. Ou à consulter, par exemple, l’article de la traductrice et chercheuse Katharine Throssel publié le 4 septembre 2023 dans AOC, intitulé  « La recherche deepLisée ou pourquoi il faut se méfier de la traduction automatique » et celui de José Álvarez Díaz publié le 6 juin 2025 dans Equal Times sous le titre « Intelligence artificielle, déshumanisation et précarité : les traducteurs aux premières loges de la dégradation de l’emploi causée par les technologies ». S’agissant de ce dernier papier, quelque chose nous dit que le traducteur, Charles Katsidonis, n’a pas balancé le texte d’origine dans la moulinette de l’IAG.

*Pour suivre les publications et interpellations du collectif IA-lerte générale :

https://www.linkedin.com/company/ia-lerte-g%C3%A9n%C3%A9rale/posts/?feedView=all

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

L’auteur n’a pas autorisé les commentaires sur ce billet