Lange Zeit wurde davon ausgegangen, dass Sprache ein berechenbares Phänomen sei und sich Texte eins zu eins in eine andere Sprache übertragen ließen. (vgl. Jekat und Volk 2010, 643) Daher begann mit Aufkommen der ersten Computer während des Zweiten Weltkriegs die Forschung der maschinellen Übersetzung. (vgl. Hutchins 1986, 2.2)
Die anfänglichen Motive für den Einsatz einer automatisierten Übersetzung waren militärischer und wissenschaftlicher Natur. In Großbritannien wurden beispielsweise während des Zweiten Weltkriegs Computer dazu genutzt, den deutschen Verschlüsselungscode des Militärs (Enigma-Code) zu knacken. (vgl. Hutchins 1986, 2.4.1)
Durch das Aufkommen der elektronischen Intelligenz erhofften sich einige Forscher, die Herausforderung der maschinellen Übersetzung rasch bewältigen zu können und einige der frühen Ansätze finden auch heute noch Verwendung. So spricht man auch heute noch von Dekodierung einer fremden Sprache und es hat den Anschein, dass auch die Finanzierung für den Bereich der maschinellen Übersetzung noch immer aus demselben Grund erfolgt wie damals: Regierungen, vor allem die der USA, wollen die Sprachen von Ländern, die eine Bedrohung für die nationale Sicherheit darstellen könnten – sei es militärisch oder wirtschaftlich – verstehen können. (vgl. Evers 2003)
Im Bereich der maschinellen Übersetzung wurden zahlreiche Ansätze erforscht, von einfacher direkter Übersetzung, bei der der Ausgangstext (Input) mithilfe von Grundregeln in einen Zieltext (Output) umgewandelt wird, über ausgeklügeltere Transferverfahren, bei denen morphologische und syntaktische Analysen eingesetzt werden, bis hin zu Interlingua-Methoden, bei der die Übersetzung über den Weg einer künstlichen Zwischensprache erreicht wurde. (vgl. Koehn 2010, 14-15)
Zu Beginn der Forschungen in den 1950er Jahren herrschte großer Optimismus über die ersten Erfolge. Die Euphorie über maschinelle Übersetzung fand jedoch mit dem ALPAC-Report im Jahr 1966 ein jähes Ende. Die Studie des Automatic Language Processing Advisory Committee über die Möglichkeiten der maschinellen Übersetzung zeigte unter anderem, dass eine maschinelle Übersetzung mit Post-Editing nicht billiger oder schneller war als eine reine Humanübersetzung. (vgl. Koehn 2010, 15) Das Komitee war der Ansicht, dass maschinelle Übersetzungssysteme somit keinen ökonomischen Vorteil brachten. Dies hatte zur Folge, dass die Finanzierung der Forschung im Bereich maschineller Übersetzung nahezu komplett eingestellt wurde.
Der ALPAC-Report berücksichtigte ausschließlich das Ziel der vollautomatischen, qualitativ hochwertigen maschinellen Übersetzung, die FAHQT (Fully Automatic High Quality Translation). Sie sollte die gleiche Qualität wie eine Humanübersetzung aufweisen. (vgl. Koehn 2010, 15) „In Bezug auf FAHQT wurde bereits 1960 von einigen Forschern erkannt, dass dieses Konzept vermutlich ein zu hochgestecktes Ziel für [maschinelle Übersetzung] ist.“ (Jekat und Volk 2010, 643) Daher wurde dieses Vorhaben nach Erscheinen des ALPAC-Reports weitestgehend aufgegeben.
Häufig wird nur der negative Einfluss des ALPAC-Reports auf die Forschung der maschinellen Übersetzung erwähnt. Jedoch begann mit ihm auch die Forschung auf einem neuen Gebiet, nämlich dem der computergestützten Humanübersetzung. (vgl. Hutchins 1998, 3) Es wurde davon ausgegangen, dass dies ein wichtiger Weg zu besseren, schnelleren und kostengünstigeren Übersetzungen sei: „Machine-aided translation may be an important avenue toward better, quicker, and cheaper translation“ (ALPAC 1966, 32)
Der ALPAC-Report, der einen Tiefschlag für die maschinelle Übersetzung bedeutete, kann somit gleichzeitig als Katalysator für die computergestützte Übersetzung gesehen werden. Während die Übersetzer der maschinellen Übersetzung feindlich gegenüberstanden, da sie nicht nur ihren Lebensunterhalt bedrohte, sondern auch das Post-Editing – also das nachträgliche Korrigieren des maschinell übersetzten Texts – eine undankbare Tätigkeit darstellte, befürworteten auch sie die Unterstützung ihrer Arbeit durch Computerprogramme. „[The committee] believed that aids such as these could be much more economically effective in the support of translation production than any of the current MT systems. This view was supported by translators themselves.” (Hutchins 1998, 3)
Die ersten Vorschläge für Computerprogramme zur Unterstützung der Arbeit von Übersetzern kamen in den 1970er und frühen 1980er Jahren während verschiedener Entwicklungsstufen von Computern auf und wurden häufig unabhängig voneinander formuliert. (vgl. Hutchins 1998, 1)
Computerbasierte terminologische Ressourcen verbreiteten sich erst ab den späten 1960er Jahren. Vor allem in großen Industrie- und Regierungsinstitutionen gab es immer größeren Bedarf an schnell zugänglichen aktuellen wissenschaftlichen, technologischen, wirtschaftlichen und sozialwissenschaftlichen Glossaren und Wörterbüchern. Die Schwierigkeiten für die Erstellung bestanden – wie auch heute noch – vor allem in der sich schnell ändernden Terminologie in vielen wissenschaftlichen und technischen Fachgebieten, im Aufkommen neuer Techniken und neuer Produkte, der häufig unzureichenden Standardisierung von Terminologie, sowie der Vielfalt an Informationsquellen mit variierender Qualität und Verlässlichkeit. (vgl. Hutchins 1998, 4)
Zu dieser Zeit verbrachten Übersetzer Hutchins zufolge schätzungsweise 60% ihrer Arbeitszeit damit, Wörterbücher, Glossare und andere terminologische Quellen zu konsultieren. (vgl. ebd.) An dieser Stelle wäre es interessant herauszufinden, wie diese Schätzung in Bezug auf die Arbeit heutiger Übersetzer aussehen würde. Aus eigener Erfahrung nimmt aber das Arbeiten am Computer durch den Zugriff auf digitale Wörterbücher und Glossare viel weniger Zeit in Anspruch als das Durchblättern von gebundenen Büchern oder ausgedruckten Listen.
Die digitalen Wörterbücher, die um die 1960er Jahre für die maschinellen Übersetzungssysteme erstellt wurden, waren aufgrund der zahlreichen Systeminformationen für Humanübersetzer nicht zu gebrauchen, vielmehr benötigten sie vor allem Zugang zu spezieller Terminologie aus technischen und wissenschaftlichen Bereichen:
“Translators do not need the kind of detailed information about grammatical functions, syntactic categories, semantic features, inflected forms, etc. which is to be found in MT lexica, and which is indeed essential for automatic analysis. Nor do translators need to consult dictionaries for items of general vocabulary–which are equally essential components of a MT system dealing with full sentences.” (ebd.)
In den 1970er Jahren wurden erste Terminologiedatenbanken erstellt, um bei Bedarf Informationen über einzelne Wörter oder Sätze wie beispielsweise Definitionen, Beispiele und Übersetzungen als Basis für die Erstellung von Glossaren für spezifische Texte und spezialisierte aktuelle Wörterbücher zur Verfügung stellen zu können. Viele dieser Datenbanken waren mehrsprachig angelegt und enthielten Definitionen zu den Einträgen. Bei anderen Terminologiedatenbanken lag der Schwerpunkt auf der Bereitstellung von Termini im jeweiligen Kontext. (vgl. ebd.)
Im Übersetzungsdienst der deutschen Bundeswehr, dem früheren Bundessprachenamt, entwickelte Friedrich Krollmann ab 1965 das System LEXIS, das sowohl für die Erstellung von aktuellen Wörterbüchern und Wortlisten mit wissenschaftlichen und technischen Begriffen sowie für textbezogene Glossare verwendet werden konnte. Letztere wurden auf Nachfrage für Übersetzer erstellt, die an bestimmten Texten arbeiteten. Übersetzer markierten die Begriffe im Ausgangstext, bei denen sie Hilfe benötigten. Diese wurden anschließend ausgedruckt. Die jahrelange Erfahrung des Bundessprachenamtes zeigte, dass textbezogene Glossare einen entscheidenden Beitrag dazu leisten können, Übersetzungsarbeiten sowohl quantitativ als auch qualitativ zu verbessern. Diese Beobachtung war eine der ersten, die auf die beachtlichen wirtschaftlichen Vorteile der angemessenen Nutzung von Computern für die Übersetzungsarbeit hinwies. (vgl. Hutchins 1998, 4-5)
In den 1970er Jahren revolutionierten neue Entwicklungen die Nutzung von Computern. Eine davon war das sogenannte Time-Sharing. Hierbei handelte es sich um einen Ansatz, der es ermöglichte, mehrere Benutzer gleichzeitig an einem Computer arbeiten zu lassen, wobei jeder Nutzer das Gefühl hatte, alleine an dem Computer zu arbeiten. Durch Time-Sharing konnten mehrere Nutzer miteinander direkt von einzelnen Terminals (Arbeitsplätzen) aus über einen Computer kommunizieren. Am IBM Forschungszentrum in Yorktown Heights erforschte Erhard O. Lippmann die Möglichkeiten des Time-Sharing für den Bereich der computergestützten Übersetzung. Ihm zufolge konnte eine Übersetzung dadurch schneller fertiggestellt...