Detailansicht

Maschinelle Übersetzung
ein kritischer Vergleich
Judith Stampf
Art der Arbeit
Masterarbeit
Universität
Universität Wien
Fakultät
Zentrum für Translationswissenschaft
Betreuer*in
Gerhard Budin
Volltext herunterladen
Volltext in Browser öffnen
Alle Rechte vorbehalten / All rights reserved
DOI
10.25365/thesis.18315
URN
urn:nbn:at:at-ubw:1-30348.72715.392153-6
Link zu u:search
(Print-Exemplar eventuell in Bibliothek verfügbar)

Abstracts

Abstract
(Deutsch)
Im ersten Teil meiner Arbeit habe ich die theoretischen Grundlagen erarbeitet, die notwendig sind, um die anschließende Evaluierung der Online-Übersetzungsdienste von GOOGLE, PROMT und MOSES durchführen zu können. Dafür wruden verschiedene Definitionen des Begriffs Maschinelle Übersetzung miteinander verglichen. Als Grundlage für diese Arbeit dient jene von Goshawke/Kelly/Wigg (1987). In ihrer Definition unterscheiden sie zwischen vollautomatischer und maschinengestützter Maschineller Übersetzung. Vollautomatische Systeme generieren qualitativ hochwertige Übersetzungen ohne jegliches menschliches Eingreifen, bei maschinengestützten Systemen ist eine Vorbearbeitung des Ausgangstextes und/oder eine Nachbearbeitung der Übersetzung notwendig, um eine hochqualitative Übersetzung zu erhalten. Bestehende MÜ-Systeme sind daher fast ausschließlich in die Kategorie der maschinengestützten Systeme einzureihen und eine Nachbearbeitung des MÜ-Outputs ist unumgänglich, möchte man eine Übersetzung, die jener einer Humanübersetzung entspricht. Nach der Auseinandersetzung mit dem Begriff Maschinelle Übersetzung an sich, habe ich einen Überblick über die Geschichte der Maschinellen Übersetzung – von der Anfangszeit nach dem Zweiten Weltkrieg bis in die Gegenwart – gegeben. Danach werden verschiedene Einsatzbereiche aufgezeigt nämlich – die institutionelle, private oder öffentliche Anwendung, sowie Online-Übersetzungen und Maschinelles Dolmetschen. Der wichtigste Grund für den Einsatz von MÜ-Systemen ist eine Kosten- und Zeitersparnis, aber auch sozial-politische, kommerzielle, wissenschaftliche und philosophische Gründe spielen eine Rolle für den Einsatz von MÜ-Systemen. Nach genauerer Ausführung dieser Gründe wurden verschiedene bestehende MÜ-Ansätze und -Methoden erörtert. Die wichtigsten Ansätze der Gegenwart sind der regelbasierte Ansatz, wo Übersetzungsentscheidungen aufgrund von linguistischen Regeln getroffen werden, und der statistische Ansatz, welcher auf der Berechnung von Wahrscheinlichkeiten basiert. Teilweise werden diese noch als Konkurrenten betrachtet, der Trend geht aber immer weiter hin zu sogenannten hybriden Systemen, welche die Vorteile verschiedener Ansätze in einem einzelnen System vereinen. Abschließend habe ich mich im theoretischen Teil dieser Arbeit mit verschiedenen Ansätzen zur Evaluierung von MÜ-Systemen beschäftigt. Dafür wurden die theoretischen Ansätze von van Slype (1979), Lehrberger/Bourbeau (1988), Hutchins/Somers (1992), Arnold (1994) und Hutchins (1997) miteinander verglichen. Anschließend bin ich auf die auch in der Praxis durchgeführten Ansätze von Rinsche (1992), Schäfer (2002) und Ramlow (2009) eingegangen. Die Ansätze sind teilweise sehr unterschiedlich. Ausnahmslos alle Autoren betonen allerdings, dass die zu wählenden Kriterien für die Evaluierung von MÜ-Systemen vom Ziel der Evaluierung abhängen würden und es keine universell anwendbare Methode gebe. Nach eingehendem Studium der theoretischen Grundlagen, habe ich im zweiten Teil meiner Arbeit meine eigene Evaluierungsmethode entwickelt und durchgeführt. Ich habe mich zu einer linguistischen Performanzanalyse anhand einer Fehlertypologie entschlossen, da dies die objektivste Methode für eine Evaluierung ist. Die von mir erstellte Fehlertypologie gliedert sich in vier Ebenen, nämlich in eine lexikalische, syntaktische, semantische und morphologische. Diese Ebenen sind wiederum in insgesamt 26 Kategorien unterteilt. Für den Zweck der Evaluierung wurden insgesamt vier englische Textstichproben, also nicht vorbearbeitete originale Texte, von unterschiedlicher Komplexität ausgewählt und von den drei Online-Übersetzungsanbietern GOOGLE, PROMT und MOSES ins Deutsche übersetzt. Die nicht nachbearbeiteten Rohübersetzungen wurden anschließend auf Fehler untersucht, welche den verschiedenen Kategorien zugeordnet wurden. Als Referenz habe ich eine deutsch Übersetzungen der Texte verwendet, welche von professionellen Humanübersetzern erstellt wurden. Die Ergebnisse meiner Evaluierung sind klar und einheitlich. Im ersten Teil meiner Evaluierung habe ich mich mit der Frage beschäftigt, welches System die besten Resultate liefert. Das beste Ergebnis insgesamt lieferte GOOGLE, gefolgt von PROMT und schließlich MOSES mit dem schlechtesten Ergebnis. Auch die Ergebnisse auf den einzelnen Ebenen sind konsistent und zeigen, wo die Stärken und Schwächen der einzelnen Systeme liegen. Auf der lexikalischen Ebene lieferte GOOGLE das beste Ergebnis, gefolgt von MOSES und schließlich PROMT. Ins Auge sticht, dass PROMT zwar kaum Wörter nicht, diese aber auffällig oft falsch übersetzt. MOSES übersetzt Wörter zwar öfter richtig, allerdings sehr oft gar nicht. Hier sind die größten Schwächen dieser beiden Systeme zu sehen. Auf der syntaktischen Ebene ist das Ergebnis von PROMT das beste, gefolgt von GOOGLE und schließlich MOSES. Auf der semantischen Ebene lieferte wieder GOOGLE das beste Ergebnis und PROMT ist hier auf Platz zwei zu setzen, MOSES an letzte Stelle. Die Gründe für die schlechten Ergebnisse von PROMT und MOSES sind vor allem auf der lexikalischen Ebene zu finden. Die Übersetzungen von PROMT sind oft nicht verständlich, da Wörter falsch übersetzt wurden. Bei MOSES ist das Hauptproblem, dass viele Wörter nicht übersetzt wurden. Gerade fehlende Verben haben eine sehr negative Auswirkung auf die Verständlichkeit der Texte. Auf der morphologischen Ebene liefert PROMT das beste und GOOGLE das schlechteste Ergebnis, MOSES ist auf Platz zwei zu setzen. Im zweiten Teil meiner Evaluierung habe ich überprüft, ob das Schwierigkeitsniveau des Ausgangstextes einen Einfluss auf die Übersetzungsqualität hat. Die vier verwendeten Textstichproben waren von unterschiedlicher, zunehmender Schwierigkeit, wobei Textstichprobe 1 am einfachsten war, Textstichprobe 4 am komplexesten. Auch hier sind die Ergebnisse sehr klar. Die Evaluierung hat gezeigt, dass umso komplexer die Satzstrukturen und die Terminologie der Ausgangstexte sind, umso mehr Fehler generiert werden. Bereits einfache Nebensätze bereiten den Systemen große Schwierigkeiten. Für die Übersetzung mit den ausgewählten Online-Übersetzungsdiensten eignen sich daher nur stark vereinfachte Texte.
Abstract
(Englisch)
The topic of this Master’s thesis is Machine Translation (MT) and the evaluation of free online MT services, namely those provided by GOOGLE, PROMT and MOSES. The goal of this thesis was to answer the following questions: Which of the three mentioned services ge-nerates the best translations with regard to their potential users and why? How far does the source texts’ level of complexity influence the MT output? How complex can a source text be in order for it to still be translateable? After studying various evaluation approaches I decided on conducting a linguistic perfor-mance analysis in the form of an error typology. The reason for picking this method was that it is the most objective way of evaluating MT systems. I therefore developed my own error typology that was divided into four classes of errors – namely lexical, syntactic, semantic and morphologic errors. These classes of errors were again divided into 26 more specific error categories. After determining the categories I chose four different English text samples of varying complexity and translated them into German using GOOGLE, PROMT and MOSES. Afterwards, I analyzed each translation and identified and classified the errors found in the MT outputs. As reference I used translations of the texts which were generated beforehand by professional human translators. All in all GOOGLE produced the best results, followed by PROMT. MOSES’s overall results were the poorest. GOOGLE performed neither extraordinarily well nor badly in any category but always generated steady results and produced the most comprehensible translations with the smallest amount of errors. PROMT generated the most errors in the lexical categories by translating many words incorrectly and this is where the system’s greatest weakness lies. In the syntactic and morphological categories PROMT generated the best results. Nevertheless, because of the large amount of lexical errors the translations are often incomprehensible. MOSES also showed the most problems in the lexical categories, although unlike PROMT not by translating words incorrectly but by not translating them at all. Many words are simply missing in the translations and especially the lack of verbs make MOSES’s translations the least comprehensible. Furthermore, my evaluation showed that the more complex the source text is, the more errors will be found in the translation. The evaluated MT systems already showed difficulties when translating simple subordinate clauses, which illustrates that all three services are only suitable for translating very simplified texts.

Schlagwörter

Schlagwörter
(Englisch)
Machine Translation (MT)
Schlagwörter
(Deutsch)
Maschinelle Übersetzung (MÜ)
Autor*innen
Judith Stampf
Haupttitel (Deutsch)
Maschinelle Übersetzung
Hauptuntertitel (Deutsch)
ein kritischer Vergleich
Publikationsjahr
2012
Umfangsangabe
131 S.
Sprache
Deutsch
Beurteiler*in
Gerhard Budin
Klassifikation
17 Sprach- und Literaturwissenschaft > 17.45 Übersetzungswissenschaft
AC Nummer
AC10754136
Utheses ID
16403
Studienkennzahl
UA | 060 | 342 | 351 |
Universität Wien, Universitätsbibliothek, 1010 Wien, Universitätsring 1