08.12.2005, 19:38 Uhr
Gebrochen mit fremder Zunge
«Es ist das Dolmetschen nicht eines Jeden Sache», meint schon Martin Luther. Das gilt erst recht für Maschinen.
Eine Konversation zwischen Mensch und Maschine ist immer noch mühsam. Trotzdem wird an futuristischen Dolmetschgeräten gebaut.
Wohl kaum eine Technik hat solche Mühe, den Kinderschuhen zu entwachsen, wie die maschinelle Übersetzung und die Spracherkennung. Dennoch arbeiten Forscher und Hersteller fieberhaft an der Verbesserung der Techniken.
Beispiel hierfür ist etwa die Universität Karlsruhe, die mit der Carnegie Mellon University das International Center for Advanced Communication Technologies (Interact) unterhält. Jüngste Errungenschaft der Forschungsstätte soll unter anderem ein Taschenrechner grosses Übersetzungsgerätchen sein, das die Funktion eines Simultandolmetschers übernehmen kann - und zwar ohne zuvor thematisch geschult worden zu sein. Das Gerät basiert auf dem statistischen Übersetzungsansatz. Dabei werden bereits gedolmetschte Texte für die eigene Übersetzungsleistung zu Rate gezogen. Diverse Dokumente wie etwa Papiere der EU und Bücher, beispielweise die Klassiker der Weltliteratur oder die Bibel, liegen bereits in verschiedenen Übersetzungen elektronisch vor. Der Rechner muss nun «nur» noch einen Vergleich zwischen dem Gehörten und dem übersetzten Fundus machen und schon ist die eigene Übertragung aus-gabebereit.
Beispiel hierfür ist etwa die Universität Karlsruhe, die mit der Carnegie Mellon University das International Center for Advanced Communication Technologies (Interact) unterhält. Jüngste Errungenschaft der Forschungsstätte soll unter anderem ein Taschenrechner grosses Übersetzungsgerätchen sein, das die Funktion eines Simultandolmetschers übernehmen kann - und zwar ohne zuvor thematisch geschult worden zu sein. Das Gerät basiert auf dem statistischen Übersetzungsansatz. Dabei werden bereits gedolmetschte Texte für die eigene Übersetzungsleistung zu Rate gezogen. Diverse Dokumente wie etwa Papiere der EU und Bücher, beispielweise die Klassiker der Weltliteratur oder die Bibel, liegen bereits in verschiedenen Übersetzungen elektronisch vor. Der Rechner muss nun «nur» noch einen Vergleich zwischen dem Gehörten und dem übersetzten Fundus machen und schon ist die eigene Übertragung aus-gabebereit.
Gebrochen mit fremder Zunge
Perfekt ist auch dieses System nicht. Während der Präsentation, bei der Alex Waibel, Professor und Interact-Leiter, eine Vorlesung in Englisch hielt und das Gerätchen sich als Simultan-übersetzer versuchte, verwechselte es gelegentlich gleichlautende Wörter wie etwa «some» (einige) mit «sum» (Summe). Somit ist es mit dem Kontextverständnis der Lösung noch nicht zum Besten bestellt.
Fast wie zum Trotz arbeiten Waibels Leute an noch futuristischeren Dolmetschern. Mit «Sprachstrahlen» soll so etwa die Übersetzung an eine einzige Person im Raum gerichtet werden können, damit kein akustisches Sprachenbabel entsteht. Eine weitere Entwicklung, «Sprachbrille» tituliert, blendet das Gesagte in der eigenen Zunge als Text auf einer VR-Brille ein.
Ebenfalls recht abenteuerlich hört sich die Technik an, an der die Interact-Leute sonst noch arbeiten. So sollen künftig die Anwender eine Sprache sprechen können, ohne diese je gelernt zu haben. Zu diesem Zweck werden die Gesichtsbewegungen aufgenommen. Der Sprecher bewegt also nur die Lippen in seiner Muttersprache, und aus einem Lautsprecher ertönt - einem Bauchredner gleich - die Übersetzung.
Auch dies ist natürlich alles noch Zukunftsmusik. Derweil bekunden Spracherkennungssysteme nach wie vor Probleme, den hörbaren Output des Homo sapiens richtig zu erkennen, und erst recht damit, dessen Gequassel korrekt in eine andere Sprache zu übersetzen. Kleine Schritte sind gefragt. So arbeitet die kalifornische Firma Lumen Vox daran, eine Voice-Anwendung zu schreiben, die in einem gewissen Sinne mitdenkt. Wenn etwa ein automatisches Flugreservierungssystem die Flugnummer, die der Anwender in den Telefonhörer sagt, nicht erkennt, versucht die Software anhand der verstandenen Daten, beispielsweise Abflugort, Destination und Zeit, die Flugnummer zu erraten.
Fast wie zum Trotz arbeiten Waibels Leute an noch futuristischeren Dolmetschern. Mit «Sprachstrahlen» soll so etwa die Übersetzung an eine einzige Person im Raum gerichtet werden können, damit kein akustisches Sprachenbabel entsteht. Eine weitere Entwicklung, «Sprachbrille» tituliert, blendet das Gesagte in der eigenen Zunge als Text auf einer VR-Brille ein.
Ebenfalls recht abenteuerlich hört sich die Technik an, an der die Interact-Leute sonst noch arbeiten. So sollen künftig die Anwender eine Sprache sprechen können, ohne diese je gelernt zu haben. Zu diesem Zweck werden die Gesichtsbewegungen aufgenommen. Der Sprecher bewegt also nur die Lippen in seiner Muttersprache, und aus einem Lautsprecher ertönt - einem Bauchredner gleich - die Übersetzung.
Auch dies ist natürlich alles noch Zukunftsmusik. Derweil bekunden Spracherkennungssysteme nach wie vor Probleme, den hörbaren Output des Homo sapiens richtig zu erkennen, und erst recht damit, dessen Gequassel korrekt in eine andere Sprache zu übersetzen. Kleine Schritte sind gefragt. So arbeitet die kalifornische Firma Lumen Vox daran, eine Voice-Anwendung zu schreiben, die in einem gewissen Sinne mitdenkt. Wenn etwa ein automatisches Flugreservierungssystem die Flugnummer, die der Anwender in den Telefonhörer sagt, nicht erkennt, versucht die Software anhand der verstandenen Daten, beispielsweise Abflugort, Destination und Zeit, die Flugnummer zu erraten.