Robotik 09.11.2011, 10:37 Uhr

Von Angesicht zu Angesicht

Münchener Roboterforscher haben zusammen mit japanischen Wissenschaftlern Robotern ein Gesicht gegeben: Ein Beamer projiziertdabei das 3D-Bild eines menschlichen Antlitzes von hinten in eine Kunststoffmaske, Sprache und Mimik steuert ein Computer.
Takaaki Kuratate von der TU München im Zwiegespräch mit dem Mask-Bot
Diese Mask-Bot genannte Kreatur sieht nicht nur menschenähnlich aus. Der Kunststoffkopf spricht auch, zeigt Emotion und Mimik. Schlichte Dialoge kann er schon. «Rainbow», sagt Takaaki Kuratate von der Technischen Universität (TU) München und einer der Väter von Mask-Bot. Schon klimpert der Maschinenmensch mit den Augen und entgegnet dem Gesprächspartner mit einem elaborierten Satz - derzeit noch auf Englisch. Übersetzt ins Deutsche sagt er: «Wenn sich Sonnenstrahlen in den feinen Wassertropfen der Atmosphäre brechen, dann entsteht ein Regenbogen.» Dabei bewegt er ein wenig den Hals und hebt vielsagend die Augenbrauen.  Was fast täuschend echt wie ein sprechender Mensch aussieht, ist der Prototyp eines neuen Robotergesichts, das ein Team am Institut für Kognitive Systeme (ICS) der TU München in Kooperation mit einer Gruppe aus Japan entwickelt hat. «Mask-Bot wird die Art und Weise prägen, wie wir Menschen in Zukunft mit Robotern kommunizieren», prognostiziert Gordon Cheng, der Leiter des ICS-Teams. Gleich mehrere Neuheiten haben die Entwickler dabei realisiert. Da ist einmal die grosse Präsenz eines Gesichts in 3D. Bislang verpassen zwar schon manche andere Gruppen ihren Maschinen ein dreidimensionales Antlitz, doch sind diese eher comicartig animiert. Mask-Bot hingegen hat einen dreidimensionalen Kopf: eine transparente Kunststoffmaske, auf die ein hinter ihr befestigter Beamer ein menschliches Gesicht projiziert. Die Idee Gesichter zu projizieren ist nicht alt. «Walt Disney», nennt Kuratate einen Pionier des Felds, «liess schon in den 1960er-Jahren für seine Spukhaus-Installationen die Gesichter Grimassen schneidender Schauspieler auf Büsten projizieren, die damit zu sprechenden Köpfen wurden.» Während Disney die Büsten von vorne anstrahlte, ist es mit Mask-Bot jetzt möglich, alle Komponenten für das Gesicht in einem Roboter-Kopf von aussen unsichtbar unterzubringen.  Dafür musste das Team mit einer stark stauchenden Fischaugenlinse mit einem Makroadapter dafür sorgen, dass bei einem Abstand von nur zwölf Zentimetern zwischen Linse und Gesichtsmaske dort auch wirklich ein komplettes Gesicht ankommt. Ein besonders starker, kleiner Beamer sowie eine spezielle Leuchtschicht-Imprägnierung auf der Innenseite der Kunststoffmaske verhelfen Mask-Bot zu so viel Leuchtkraft, dass die Kommunikation Mensch-Maschine auch bei Tageslicht möglich ist. «Bei uns können Sie die Vorhänge offen lassen», erklärt Kuratate lachend.  Lesen Sie auf der nächsten Seite: Einsatz in der Video-Konferenz
Der Kopf der Roboters könnte schon bald in Videokonferenzen angewandt werden. «Mask-Bot kann dabei das bislang übliche Monitorbild einer Person durch eine echte Nachbildung ersetzen, die mit am Tisch sitzt und genauso aussieht und spricht», sagt Kuratate.  Als Gesicht für einen Roboter muss Mask-Bot allerdings unabhängig von einer Videoübertragung sein, hinter der ja ein sprechender Mensch steht. Ein neu entwickeltes Programm sorgt dafür, dass dem Computer bereits ein normales, zweidimensionales Foto ausreicht, um es richtig proportioniert in eine Projektion für eine dreidimensionale Maske umzuwandeln. Weitere Algorithmen verleihen dem Gesicht Mimik und Sprache.  Für das Mienenspiel hat Kuratate die «Talking Head Animation Engine» entwickelt: Zunächst sammelt ein Kamerasystem zahlreiche Informationen über das Mienenspiel menschlicher Probanden. Daraus filtert und abstrahiert ein Computer jene Gesichtsausdrücke, die zu einem bestimmten Laut passen, wenn er gesprochen wird. Aus jedem dieser Gesichtsausdrücke wurde ein Set an Gesichtspunkten extrahiert, die der Computer nun jedem neuen Gesicht zuordnen und es so beleben kann. Eine «Emotion Synthesis Software» sorgt bei Bedarf für eine emotionale Färbung: dass jemand fröhlich, traurig oder wütend schaut.  Mask-Bot kann bereits realistisch nachsprechen, was ihm über eine Tastatur eingetippt wird. Englisch, Japanisch und bald auch Deutsch: Eine «Text To Speech»-Programmierung setzt den Text in Audiosignale um. Auf Knopfdruck einmal als Frauen- oder Männerstimme, einmal leiser, ein anderes Mal lauter und fröhlicher. Lesen Sie auf der nächsten Seite: Mask-Bot ist noch kein guter Zuhörer
Gesprochene Sprache versteht Mask-Bot allerdings noch kaum. Hören und passende Antworten geben, kann Mask-Bot derzeit nur auf fest programmierten Bahnen. Das allerdings ist kein Spezifikum der neuen Maschine: Die Entwicklung von Programmen, mit denen Roboter tatsächlich in Echtzeit hören und verstehen können, was ein menschliches Pendant gerade sagt, um dann auch noch passend zu antworten, das bleibt weltweit ein riesiges Forschungsthema: «Dafür brauchen wir mehr denn je unsere bereits etablierte internationale Zusammenarbeit», weiß Kuratate.  Mit Mask-Bot wählt die Forschergruppe einen anderen Weg als jenen, die Mimik mit Gesichtseinzelteilen und Dutzenden darunter liegender Mini-Motoren zu imitieren. Denn Mask-Bot wird in der Lage sein, viel schneller als ein recht träges mechanisches Antlitz Sprache und Mimik zu kombinieren. So tüfteln die Münchener Erfinder schon am Nachfolger Mask-Bot 2. Hier werden Maske, Projektor und Computersteuerung in einem mobilen Roboter stecken. Kostete Prototyp 1 noch knapp unter 3000 Euro, sollen bei seinem Nachfolger 400 Euro in Reichweite kommen. «Neben der Verwendung in Videokonferenzen könnten solche Systeme bald Gesprächspartner für ältere Menschen sein, wenn sie alleine Zeit verbringen müssen», meint Kur



Das könnte Sie auch interessieren