Post-Editing und das menschliche Gehirn

Dieser Beitrag wurde ursprünglich 2020 im Mitteilungsblatt des Berufsverbands für Dolmetschen und Übersetzen UNIVERSITAS Austria veröffentlicht.



Die maschinelle Übersetzung (MÜ) ist im Laufe der letzten Jahre zu einem zentralen Thema unserer Branche geworden und sorgt wie die generelle Digitalisierung unseres Alltags für viel Auf- merksamkeit. Wenn manche Aspekte wie Datenschutz oder Autorschaft häufiger diskutiert werden, bleiben andere, weitreichendere Fragen offen, z. B. was die Folgen für unsere Arbeitsweise und die kognitiven Prozesse bei den verschiedenen Arbeiten betrifft.



Die MÜ wird unseren Beruf sicher beeinflussen. Ob wir diese Tendenz positiv oder negativ betrachten, bleibt es immerhin interessant, sich über das Thema zu informieren – und sei es auch nur, um die Technologie und deren Grenzen besser zu verstehen und unsere KundInnen informieren bzw. beraten zu können.


In seinem Buch Babel 2.0 gibt der französische Computerlinguist Thierry Poibeau einen knappen Überblick über die faszinierende und erstaunliche Geschichte der MÜ, die viel älter ist, als man annimmt: Die 1. Demo fand bereits 1954 statt, wobei die auf Deep Learning basierende neuronale maschinelle Übersetzung (NMÜ) erst 2016 auf den Markt kam. Die NMÜ, die als direkte Folge der statistischen maschinellen Übersetzung (SMÜ) zu betrachten ist, hat unsere Branche revolutioniert und zum Entstehen eines neuen Berufszweiges geführt: dem Post-Editing (PE).


Man kann sich jedoch fragen, was von der NMÜ und vom PE wirklich erwartet werden kann, und ob es nicht riskant ist, sich unreflektiert darüber zu freuen, wie viele Menschen dies hinsichtlich der digitalen Revolution generell tun. Die Frage ist umso relevanter, da viele KI-Profis selbst dem Thema sehr kritisch gegenüberstehen und manche von ihnen sogar vom „Schwindel des Jahrhunderts“ sprechen.


Thierry Poibeau erklärt in seinem Buch, wie die heutigen NMÜ-Systeme genau funktionieren. Man sollte dabei zunächst nicht vergessen, dass die NMÜ riesengroße Parallelkorpora benötigt, was erste Probleme mit sich bringt. Es stellt sich z. B. heraus, dass die Qualität der Übersetzungen viel niedriger ist, wenn keine der beiden Sprachen Englisch ist. Zur Überwindung dieses Problems kann Englisch zwar als Pivot-Sprache zur Vermittlung zwischen zwei anderen Sprachen verwendet werden, trotzdem erhöhen sich dann die Fehlerrisiken, während die zu erwartende Qualität sinkt. Zudem tritt eine wichtige Frage auf: Wird Englisch als Pivot-Sprache seine dominierende Stellung nicht noch verstärken, die anderen Sprachen beeinflussen und so zu einer Verarmung derselben beitragen? Der Sprachwissenschaftler greift in seinem Buch auf die Sapir-Whorf-Hypothese zurück, die davon ausgeht, dass die Sprache unsere Weltwahrnehmung bestimmt. Wenn dieser Sprachdeterminismus heute eher relativiert wird, erkennen trotzdem viele SpezialistInnen, dass ein solcher Einfluss von Sprache auf die jeweilige Weltsicht bestehen könnte, wenn auch in geringerem Ausmaß als früher angenommen. Geringer oder nicht: Als Französin habe ich jedenfalls bereits früh gelernt, auf Anglizismen Acht zu geben und soweit wie möglich dagegen anzukämpfen.


Poibeau erwähnt in Babel 2.0 das Beispiel der Sätze, die durch die NMÜ in der Zielsprache aufgrund unterschiedlicher Sprachgewohnheiten komisch, wenn nicht sogar plump klingen. Er äußert diesbezüglich die Meinung, dass solche wortwörtlichen Übersetzungen immerhin richtig sind und dass das Ziel der MÜ-Systeme – die diesem soziolinguistischen Problem nicht entgegenwirken können und vielleicht nie entgegenwirken werden – nur darin liegt, „ein funktionierendes System zu schaffen“. So richtig dies sein mag, wirkt dieses Argument doch eher schwach, insbesondere wenn man bedenkt, dass die PosteditorInnen derartige Lehnübersetzungen nicht immer korrigieren und solche Formulierungen dann einen festen Platz in unseren Sprachen erhalten. Entlehnungen haben zwar immer existiert und sind von großer Bedeutung, jedoch ist schon seit langem zu bemerken, dass Anglizismen in vielen Sprachen überrepräsentiert sind – wie dies etwa die journalistische Sprache und deren allmähliche unbewusste Annahme durch die Leserschaft jeden Tag beweisen.


Es wird oft argumentiert, dass die MÜ zwar nicht für Literaturübersetzungen oder für Transkreation verwendet werden kann, trotzdem gibt es auch viele einfache Formulierungen, die von einer Sprache zur anderen sehr unterschiedlich sein können: In der Corona-Krise wurde es z. B. auf Deutsch üblich, „Bleiben Sie gesund“ zu sagen, während die FranzosInnen „Prenez soin de vous“ („Passen Sie auf sich auf“) bevorzugten und eine wörtliche Übersetzung von „Bleiben Sie gesund“ als seltsam empfinden würden.


Beispiel für eine wörtliche Übersetzung (Deepl)


Aber zurück zum PE: Der vielversprechende neue Berufszweig ist Gegenstand vieler Diskussionen und Hoffnungen. Doch wäre es interessant zu wissen, welche Auswirkungen diese ganz andere Arbeitsweise auf unsere kognitiven Aktivitäten haben kann. Denkanstöße zu diesem Thema kann das Buch des französischen Entwicklungspsychologen Olivier Houdé L'intelligence humaine n'est pas un algorithme geben. Der Autor zieht darin die kognitive Neurowissenschaft heran, um eine ewige Frage zu beantworten: Was ist Intelligenz? Wie bereits durch den Titel des Buches offensichtlich wird, stellt der Wissenschaftler die künstliche Intelligenz der menschlichen gegenüber und fragt nach deren Unterschieden. Er bezieht sich diesbezüglich auf die Arbeit des israelisch-US-amerikanischen Psychologen Daniel Kahneman. Der Träger des Alfred-Nobel-Gedächtnispreises für Wirtschaftswissenschaften untersuchte die menschlichen Entscheidungsprozesse und stellte dabei 2011 in seinem Buch Schnelles Denken, langsames Denken die These auf, es gäbe zwei Arten des Denkens: das intuitive und schnelle „System 1“, und das faule und langsame „System 2“, das zwar die „logischen Algorithmen“ beherbergt, das aber aus ökonomischen Gründen für das Gehirn viel schwieriger zu aktivieren ist.


Die Beziehung von KI und menschlicher Intelligenz ist hier hinsichtlich der sogenannten kognitiven Verzerrungen – d. h. der Abschwenkungen der menschlichen Kognition vom logischen Denken, in der Neurowissenschaft auch „Heuristiken“ genannt – höchst interessant. Houdé untersucht diese Verzerrungen der menschlichen Erkenntnis und weist darauf hin, dass das automatische System 1 die Ursache für dieselben bildet. Poibeau, der die algorithmischen Verzerrungen – d. h. Fehlübersetzungen – der KI unter die Lupe nimmt, verortet seinerseits den Ursprung der Letzteren in der maschinellen Verwendung von Big Data, das aus bereits verzerrten menschlichen Texten besteht. Auch wenn sich die heutigen MÜ-Systeme vor allem auf Datenmengen stützen, stellt folglich aufgrund der genannten Zusammenhänge die Datenakkumulation allein kein Qualitätsversprechen dar (wobei dies natürlich auch von der Herkunft der Daten abhängt) – genau wie die Akkumulation von Wissen beim Menschen nicht auf Intelligenz hindeutet, wie Houdé zu Recht betont.


PosteditorInnen müssen also immer beachten, dass die KI auf statistischen Korrelationen basiert und daher für verschiedene menschliche Verzerrungen überempfindlich ist. Eine solche Aufmerksamkeit bedeutet aber eine beträchtliche kognitive Anstrengung, und es ist wahrscheinlich nicht übertrieben zu behaupten, dass dies mit vorübersetzten Texten noch viel schwieriger ist als mit den eigenen. LektorInnen wissen nämlich aus Erfahrung, dass es deutlich komplexer ist, vom Zieltext Abstand zu nehmen als vom Ausgangstext. Je öfter wir PE machen, desto schwieriger wird es möglicherweise, diesen Abstand zu sichern und von den vorübersetzten Texten nicht mehr oder weniger bewusst beeinflusst zu sein.


Man könnte diesbezüglich erwidern, dass die Systeme sich ständig verbessern, was großteils tatsächlich stimmt. Es darf jedoch nicht vergessen werden, dass die NMÜ ohne jegliche äußere Kontrolle funktioniert, im Gegensatz etwa zur SMÜ. Deep Learning funktioniert wie eine Black Box und basiert auf künstlichen neuronalen Netzen mit sogenannten Worteinbettungen und Fehlerrückführungen. Es heißt, dass die Systeme so konzipiert sind, dass sie nicht durch den Menschen verändert werden können, was problematisch ist, sobald es z. B. darum geht, Fehlerquellen zu korrigieren.


Die BenutzerInnen der sozialen Netzwerke haben sehr wohl bemerkt, dass viele MÜ-Anbieter eine Evaluierung der Übersetzungen verlangen: Es ist für sie die Gelegenheit, unzählige kostenlose Bewertungen für die Verbesserung ihrer Deep-Learning-Systeme zu bekommen. Man darf sich aber fragen, ob es wirklich sinnvoll ist, die Systeme durch Herr und Frau Jedermann korrigieren bzw. verbessern zu lassen. Auf Facebook ist es übrigens so, dass man den Ausgangstext gar nicht sieht, wenn man den Zieltext mit Sternen evaluiert: Es ist schon schwierig, sich vorzustellen, dass Menschen ohne translationswissenschaftliche Ausbildung Übersetzungen evaluieren können, noch dazu ohne den Ausgangstext gelesen zu haben und vielleicht sogar ohne die Ausgangssprache zu kennen. Die Verbesserung der heutigen MÜ-Systeme erfolgt natürlich nicht nur durch diese Methode und man darf die Arbeit der WissenschaftlerInnen hinter den Kulissen nicht vergessen. Trotzdem ist es auch hier eindeutig, dass das Ziel der MÜ vor allem darin liegt, „ein funktionierendes System zu schaffen“. Poibeau zufolge gibt es womöglich eine „unüberwindliche Grenze“. Wenn dies zutrifft, dann würden die genannten Probleme fortbestehen.


Wie der französische Psychologe Alfred Binet bereits Anfang des 20. Jahrhunderts postulierte, so lautet auch Houdés zentrale These, dass Intelligenz in der Anpassungsfähigkeit des Menschen durch Aufmerksamkeit liegt. Er fügt außerdem hinzu, dass diese Anpassungsfähigkeit auf der „Inhibition“, d. h. auf der Reaktionshemmung beruht, die er, um an die Arbeit von Kahneman anzuschließen, System 3 nennt. Während Kahneman jedoch hinsichtlich unserer logischen Fähigkeiten pessimistisch ist und System 1 als das, was unsere Entscheidungen am meisten steuert, betrachtet, glaubt Houdé hingegen, dass es möglich sei, auf System 1 mithilfe von System 3, d. h. dank des kognitiven Widerstands, Einfluss zu nehmen. Was Pascal die „trügerischen Mächte“ nannte, wäre also nicht unüberwindlich, und es gälte nur noch, „inhibieren zu lernen, um denken zu können“, um es mit den Worten von Houdé zu sagen.


ÜbersetzerInnen verwenden zwar bei ihren Übersetzungsentscheidungen das logische System 2, allerdings müsse man bedenken, dass wir trotz allem nicht immer ganz objektiv arbeiten können (hier punktet die KI mit ihrer reineren Objektivität). Der durch die Vorübersetzung geringer gewordene Abstand könnte unsere Objektivitätsbemühungen zusätzlich erschweren, was am Ende Auswirkungen auf die Qualität hätte. Der französische Entwicklungspsychologe betont auch, dass die KI inhibitionsunfähig ist und fügt außerdem hinzu, dass Gefühle und Moral das logische Denken auch manchmal unterstützen können – was wiederum für die menschlichen ÜbersetzerInnen spricht. Letzteres dient ursächlich dem Überleben, denn in gefährlichen Situationen rettet uns z. B. die Angst, indem sie riskantes Verhalten inhibiert (wozu die gefühllose KI ebenso wenig in der Lage ist). Und was die Moral betrifft, sagte Piaget, so sei diese gar die „Logik des Handelns“.


Wenn die NMÜ zu Recht als eine Revolution für unsere Branche betrachtet wird, bleibt aufgrund des Gesagten zu berücksichtigen, dass sie menschliche ÜbersetzerInnen nicht ersetzen kann und dass sie nur ein zusätzliches Hilfsmittel darstellt, wie Thierry Poibeau in seinem sehr empfehlenswerten Buch betont. Es gibt leider keine Studien über die kognitiven Prozesse, die beim menschlichen Übersetzen am Werk sind, und hoffentlich wird die Psychologie des Denkens einmal dieses Thema untersuchen – aber bis dahin ist es vernünftiger, gegenüber der NMÜ misstrauisch zu bleiben oder zumindest vorsichtig mit ihr umzugehen.


Olivier Houdé erklärt, dass die NMÜ sich an den menschlichen visuellen Cortex anlehnt, der sich beim Baby sehr früh entwickelt, während der Sitz der höheren kognitiven Fähigkeiten der präfrontale Cortex ist, der auch als „Organ der Kultur“ bezeichnet wird und sich viel langsamer ausbildet. Das menschliche Gehirn ist also vielleicht faul und mag Ökonomie, aber es bleibt immerhin viel komplexer als die künstlichen neuronalen Netze. Wir wissen zwar weniger als die KI, aber wir wissen es viel besser, denn „Intelligenz ist nicht nur ein Algorithmus“, wie Houdé es schön formuliert. Die WissenschaftlerInnen, die das intensive „Bildschirmglotzen“ unserer Epoche kritisch betrachten, haben die Risiken der „elektronischen Einfachheit“ schon aufgezeigt (vgl. die Arbeit des französischen Neurowissenschaftlers Michel Desmurget). Wir wissen also schon, wie gefährlich es sein kann, unsere kognitive Faulheit zu pflegen. Und so trendig sie seit ein paar Jahren auch sein mögen, bergen die Neurowissenschaften jedenfalls noch viele Fragen.


Eines der häufigsten Argumente für die MÜ ist die Geschwindigkeit, die eben auch zu den Charaktermerkmalen unseres Gehirns und insbesondere von unserem System 1 zählt. Houdé geht aber davon aus, dass Intelligenz darin besteht, das Denken ein wenig verlangsamen zu können. In einer immer schnelleren Welt wäre es vielleicht sogar besonders wichtig, die Möglichkeit im Auge zu behalten, dass die „Abstandnahme“ der Schlüssel von System 3 und letztlich auch der menschlichen Intelligenz ist. Dies könnte für uns ÜbersetzerInnen bedeuten: die Förderung von Slow Translation.


Quellen

HOUDÉ, Olivier, L'intelligence humaine n'est pas un algorithme, Odile Jacob, 2019

KAHNEMAN, Daniel, Système 1 / Système 2 : les deux systèmes de la pensée, Flammarion, 2012

POIBEAU, Thierry, Babel 2. 0 – Où va la traduction automatique ?, Odile Jacob, 2019



0 Kommentare

Aktuelle Beiträge

Alle ansehen