Cet article a initialement été publié en allemand en 2020 dans la revue de l'association autrichienne de traduction et d'interprétation UNIVERSITAS Austria.
Ces dernières années, la traduction automatique (TA) est devenue un sujet incontournable dans notre branche. De même que la révolution numérique en général, elle est au cœur de nombreuses réflexions. Or, si certains aspects liés à cette nouvelle technologie sont régulièrement abordés, comme la protection des données et les droits d'auteur, des questions plus larges demeurent, comme les répercussions de la TA sur notre façon de travailler et sur les processus cognitifs à l’œuvre pendant le travail de traduction.
Impossible de nier l'impact qu'aura et qu'a de toute façon déjà la TA sur le travail des traductrices et des traducteurs. Que nous voyions l'automatisation de notre profession d'un œil critique ou non, il est d'ailleurs important de s'informer sur le sujet, ne serait-ce que pour mieux comprendre les technologies utilisées et leurs limites et pour pouvoir conseiller notre clientèle.
Dans le livre Babel 2.0, Thierry Poibeau, spécialiste du traitement automatique des langues et directeur de recherche au CNRS, nous donne un aperçu très utile de l'histoire fascinante de la TA, beaucoup plus ancienne que l'on imagine. La première démonstration a en effet eu lieu en 1954, tandis que la traduction automatique neuronale (TAN), majoritairement utilisée aujourd'hui et basée sur l'apprentissage profond ou « deep learning », est apparue en 2016. Héritage direct de la traduction automatique statistique (TAS), la TAN a révolutionné le secteur et fait émerger une nouvelle activité : la post-édition (PE), qui consiste à relire et corriger des textes traduits par des machines.
Quels que soient les progrès technologiques réalisés, il n'est pas superflu de se demander ce qu'on peut réellement attendre de la TAN et de la PE, et s'il n'est pas risqué de se précipiter sur ce nouvel outil sans réfléchir, comme on a généralement tendance à le faire avec les nouvelles technologies. La question semble d'autant plus pertinente que de nombreux professionnels de l'IA se montrent eux-mêmes très critiques vis-à-vis de leur discipline et de son accueil par le grand public, certains allant jusqu'à parler d’« arnaque du siècle ».
Dans son livre, Thierry Poibeau explique comment fonctionnent les systèmes de TAN actuels. Tout d'abord, il faut savoir que la TAN requiert de gigantesques corpus parallèles, ce qui pose déjà un certain nombre de problèmes. On constate par exemple que la qualité des traductions automatiques baisse énormément quand aucune des deux langues n'est l'anglais. Ce dernier peut certes être utilisé comme langue pivot entre la langue source et la langue cible, mais il en résulte une augmentation des risques d'erreurs et une baisse de la qualité, et une question importante se pose : en servant de langue pivot, l'anglais ne risque-t-il pas de renforcer sa position dominante, d'influencer les autres idiomes et de contribuer ce faisant à l'appauvrissement de ces derniers ? Thierry Poibeau mentionne à ce sujet la célèbre hypothèse de Sapir-Whorf selon laquelle la façon dont on perçoit le monde dépendrait de notre langue. Si ce déterminisme linguistique tend à être relativisé aujourd'hui, de nombreux spécialistes du langage reconnaissent que la langue influence très certainement notre vision du monde, même si cette influence est sans doute moindre que ce qui était présupposé autrefois.
Thierry Poibeau mentionne également les phrases traduites automatiquement qui, en raison d'habitudes langagières différentes, paraissent étranges voire lourdes dans la langue cible. Selon le scientifique, ces traductions automatiques restent néanmoins correctes car le but des outils de TA — qui ne peuvent pas et ne pourront peut-être jamais résoudre ce problème sociolinguistique — consiste uniquement à fournir des systèmes opérationnels. Un argument certes juste, mais qui paraît léger appliqué au monde professionnel, d'autant plus que les post-éditeurs et post-éditrices ne corrigent pas toujours ces traductions calquées sur la langue source ou la langue pivot et que ces formulations pourraient donc finir par s'établir dans les textes et les langues. Si nous ne nions pas l'importance des calques et des emprunts, qui ont toujours existé et qui sont indispensables à la formation de mots nouveaux, rappelons qu'on observe depuis un certain temps une surreprésentation des anglicismes dans les langues européennes, comme le prouve notamment la langue journalistique que le grand public finit souvent par s'approprier, généralement inconsciemment.
La TAN, il est vrai, n'est pas utilisée en traduction littéraire et en transcréation, mais c'est oublier qu'il existe aussi de nombreuses formulations simples qui diffèrent énormément d'une langue à l'autre. Au plus fort de la pandémie de COVID-19 par exemple, les francophones avaient pour habitude de dire « prenez soin de vous », tandis que les germanophones disaient « bleiben Sie gesund », soit « restez en bonne santé », une formulation très différente qui paraîtrait étrange traduite littéralement.
traduction littérale de « bleiben Sie gesund » sur Deepl
Mais revenons-en à la PE, cette nouvelle activité qui nourrit de nombreuses discussions houleuses comme de nombreux espoirs. Il serait utile, pour les traductrices et les traducteurs, de connaître l'impact que pourrait avoir cette façon radicalement différente de travailler sur notre cognition. L'intelligence humaine n'est pas un algorithme d'Olivier Houdé fournit des pistes de réflexion intéressantes à ce sujet. Le psychologue du développement s'appuie sur les sciences cognitives pour répondre à une question intemporelle : qu'est-ce que l'intelligence ? Comme le révèle le titre, l'auteur confronte l'intelligence artificielle à l'intelligence humaine en se demandant ce qui les distingue. Il s'inspire pour cela du travail du psychologue Daniel Kahneman, récompensé par le prestigieux prix en sciences économiques Alfred Nobel pour ses travaux sur les processus de décision humains. Selon Daniel Kahneman, il existerait deux types de pensée chez l'humain : le « système 1 », rapide et intuitif, et par conséquent sujet aux biais cognitifs, et le « système 2 », lent et paresseux, qui héberge certes les « algorithmes logiques » mais qui, pour des raisons d'économie, est beaucoup plus difficile à activer pour notre cerveau, par nature fainéant.
Le rapport entre intelligence artificielle et intelligence humaine est particulièrement intéressant ici, notamment en ce qui concerne les biais cognitifs : aussi appelés « heuristiques » en neurosciences, les biais cognitifs désignent les déviations, dans la cognition humaine, de la pensée logique et rationnelle. Dans L'intelligence humaine n'est pas un algorithme, Olivier Houdé rappelle que c'est le système 1, automatique, qui est responsable des biais humains, tandis que dans Babel 2.0, Thierry Poibeau explique que les biais algorithmiques de l'IA — c'est-à-dire les traductions défaillantes — sont causés par le recours de la machine au Big Data, composé notamment de textes traduits par des humains qui, par définition, comportent déjà des biais. Les outils de traduction automatique actuels font certes pour la plupart appel à de grandes quantités de données, mais comme ces données contiennent déjà des biais, il en résulte que l'accumulation de données n'est pas une promesse de qualité en soi, de la même façon que, chez l'être humain, l'accumulation de savoir n'est pas synonyme d'intelligence, comme le souligne pertinemment Olivier Houdé.
Les post-éditeurs et post-éditrices doivent donc toujours garder à l'esprit que l'IA se base sur des corrélations statistiques et est par conséquent extrêmement sensible aux biais d'origine humaine. Or, cette attention requiert un effort cognitif intense, et il n'est sans doute pas exagéré de dire que cet effort est encore plus difficile à fournir avec des textes traduits par des machines qu'avec ses propres textes. Comme les relectrices et les relecteurs le savent, il est déjà beaucoup plus difficile de prendre de la distance par rapport à un texte cible qu'à un texte source ; il sera donc vraisemblablement d'autant plus difficile d'assurer cette prise de distance avec des textes traduits par des machines pour ne pas se laisser influencer par eux, surtout lorsqu'on sait que les systèmes de TAN visent principalement la fluidité et que la fluidité peut être très trompeuse.
On pourrait objecter que les systèmes utilisés s'améliorent en permanence puisqu'ils sont basés sur l'apprentissage profond : cela est vrai en théorie, mais il ne faut pas oublier que la TAN fonctionne sans aucun contrôle extérieur, contrairement à la TAS. L'apprentissage profond, en effet, fonctionne comme une boîte noire grâce à des réseaux de neurones artificiels recourant entre autres à des « plongements de mots » et à une « rétropropagation » des erreurs. Concrètement, cela signifie que ces systèmes n'ont pas été conçus pour pouvoir être modifiés par l'humain, ce qui est problématique quand on veut corriger des sources d'erreur.
Les personnes qui utilisent les réseaux sociaux ont sans doute déjà constaté qu'on leur demandait parfois d'évaluer les traductions automatiques affichées : une occasion rêvée, pour les fournisseurs, d'obtenir d'innombrables évaluations gratuitement pour améliorer leurs systèmes d'apprentissage profond. On peut se demander, cependant, s'il est vraiment judicieux de laisser Monsieur et Madame Tout-le-Monde corriger ou améliorer ces systèmes. Sur Facebook, la configuration est telle qu'on ne voit même pas le texte source lorsqu'on évalue le texte cible grâce à un système d'étoiles : il est déjà difficile d'imaginer des gens sans aucune formation en traduction évaluer ces textes, alors si en plus ils ne voient pas le texte source voire ne parlent peut-être pas la langue source, c'est évidemment impossible. Bien sûr, l'amélioration des systèmes de TA ne passe pas que par cette méthode, et il ne faut pas oublier le travail des scientifiques en coulisses, mais quoi qu'il en soit, on constate ici encore que l'objectif de la TA consiste avant tout à créer un système opérationnel. D'après Thierry Poibeau, il y aurait de toute manière une limite infranchissable dans l'amélioration de ces systèmes : si cela est vrai, alors les problèmes susmentionnés subsisteront.
Dans L’intelligence humaine n’est pas un algorithme, Olivier Houdé définit l'intelligence comme la capacité d'adaptation de l'être humain par le biais de l'attention, une idée déjà avancée par le psychologue Alfred Binet au début du siècle dernier. Olivier Houdé ajoute que cette capacité d'attention reposerait sur « l’inhibition », c'est-à-dire sur la capacité d'inhiber ses réactions, inhibition que le scientifique appelle « système 3 » pour s'inscrire dans la continuité des travaux de Daniel Kahneman. Si ce dernier se montre pessimiste vis-à-vis de nos compétences logiques et voit le système 1 comme le maître de nos décisions, Olivier Houdé pense qu'il est possible d'influencer le système 1 grâce au système 3, c'est-à-dire grâce à notre résistance cognitive. Les fameuses puissances trompeuses dont parlait Pascal ne seraient donc pas insurmontables, puisqu'il suffirait d'apprendre à « inhiber pour raisonner », pour reprendre les mots d'Olivier Houdé.
Les traductrices et traducteurs font certes appel au système 2 et à sa logique pour prendre leurs décisions traductionnelles, mais il faut garder à l'esprit que nous ne pouvons malgré tout pas toujours travailler de manière purement objective, ce qui explique d'ailleurs pourquoi l'IA est souvent vantée pour son objectivité supposée. La prise de distance par rapport au texte cible, rendue plus difficile par le processus de prétraduction automatique, pourrait en outre complexifier nos efforts d'objectivité, ce qui aurait des répercussions négatives sur la qualité du travail.
Olivier Houdé précise aussi dans son livre que l'IA est incapable d'inhibition, et ajoute que les sentiments tout comme la morale aident parfois la pensée logique : autant d'arguments en faveur de la traduction humaine. Comme le rappelle l'auteur, le rôle des sentiments dans nos processus de décision est directement lié à la survie : la peur, par exemple, peut nous sauver dans une situation dangereuse en inhibant les comportements à risque, chose dont l'IA, entièrement dépourvue de sentiments, est en effet bien incapable. Dans le contexte traductionnel, l'empathie par exemple peut jouer un rôle important pour comprendre l'intention de l'auteur. Notons que le psychologue Jean Piaget allait plus loin qu'Olivier Houdé en disant que « la morale est la logique de l'action ».
Ainsi, si la TAN est considérée à juste titre comme une révolution dans le secteur de la traduction, il faut garder à l'esprit qu'elle ne pourra pas remplacer les traductrices et traducteurs humains et qu'elle constitue simplement un outil supplémentaire, comme le souligne Thierry Poibeau dans Babel 2.0. Malheureusement, aucune étude de fond n'a encore été réalisée sur les processus cognitifs à l'œuvre lors d'une traduction humaine. Nous espérons que la psychologie cognitive exploitera ce sujet un jour, mais d'ici là, mieux vaut garder une attitude critique, sur le plan scientifique, vis-à-vis de la TAN, et la considérer avec une certaine prudence.
Dans L'intelligence humaine n'est pas un algorithme, Olivier Houdé rappelle que la TAN s'inspire du cortex visuel humain, qui se développe très tôt chez le bébé, alors que le siège des capacités cognitives supérieures est le cortex préfrontal, considéré comme l'organe de la culture, qui se développe beaucoup plus lentement. Le cerveau humain est donc peut-être paresseux par souci d'économie, mais il demeure bien plus complexe que les réseaux de neurones artificiels. Nous savons peut-être moins de choses que l'IA, mais nous les savons mieux, car « l'intelligence n'est pas seulement un algorithme », pour reprendre la jolie formule d'Olivier Houdé. Les scientifiques qui mettent en garde contre l'omniprésence des écrans dans nos sociétés ont déjà montré le risque que pouvait poser la béquille électronique en matière de cognition (voir notamment le travail du neuroscientifique Michel Desmurget à ce sujet). Flatter notre paresse cognitive naturelle est en effet dangereux, et si elles sont très à la mode depuis quelques années, les neurosciences ont sans doute encore beaucoup de choses à nous révéler.
L'avantage de la TAN le plus fréquemment cité est la rapidité, qui fait justement partie des caractéristiques de notre cerveau et du système 1 en particulier. Olivier Houdé, de son côté, postule que l'intelligence consiste à ralentir quelque peu sa pensée : « Or il faut savoir ralentir la pensée, l'interrompre, même brièvement, pour se dégager des heuristiques [...]. L'enjeu est de prendre du recul ! » Dans un monde toujours plus rapide, il serait peut-être capital de se rappeler que cette « prise de recul » pourrait être la clé du système 3, et in fine de l'intelligence humaine, car rapidité et intelligence font rarement ménage. L'occasion pour les traductrices et traducteurs de promouvoir une slow translation ?
Sources
HOUDÉ, Olivier, L'intelligence humaine n'est pas un algorithme, Odile Jacob, 2019
KAHNEMAN, Daniel, Système 1 / Système 2 : les deux systèmes de la pensée, Flammarion, 2012
POIBEAU, Thierry, Babel 2. 0 – Où va la traduction automatique ?, Odile Jacob, 2019
Komentar