08.05.2013, 10:13 Uhr
Roboter lernt Objekte selbstständig erkennen
US-Forscher haben den Roboter «HERB» vorgestellt. Dieser erlernt unter anderem über den Tastsinn, mit welchen Objekten er es zu tun hat.
Für Roboter ist es oft schwierig, insbesondere neue Gegenstände in ihrer Umgebung als solche zu erkennen. Doch Forscher am Robotics Institute der Carnegie Mellon University (CMU) haben nun einen Ansatz entwickelt, mit dem ihr Roboter «HERB» (Home-Exploring Robot Butler) besser neue Objekte erfassen und sein Verständnis der Gegenstände weiterentwickeln kann. Damit das gelingt, verlässt er sich nicht nur auf das, was seine Roboter-Augen sehen - er nutzt auch nicht-visuelle Informationen wie sein Wissen um die Umgebung und, ob er einen Gegenstand anfassen und aufheben kann.
«Der Ansatz ist sehr interessant. Man versucht schliesslich ständig, Robotern nicht alles selbst einprogrammieren zu müssen», bestätigt Stefan Heyer, Projektleiter des Assistenzroboter-Projekts FRIEND am Institut für Automatisierungstechnik der Universität Bremen. Dabei geht es aber keineswegs nur um Bequemlichkeit für Entwickler - gerade bei Assistenzrobotern ist es ein Vorteil, wenn die Benutzer sie möglichst wenig anleiten müssen. Bislang nutzen Roboter meist vorgegebene oder speziell antrainierte Datenbanken, um Gegenstände zu erkennen. So haben die CMU-Forscher für HERB digitale Modelle von Objekten erstellt, mit denen er interagieren soll, während der österreichische Pflegeroboter «Hobbit» Gegenstände gezielt per 3D-Scan erlernt . Im Gegensatz zu diesen gängigen Ansätzen zielt das neue «Lifelong Robotic Object Discovery» (LROD) darauf ab, dass der Roboter Gegenstände möglichst selbstständig entdeckt und sein Verständnis der Objekte dann weiterentwickelt. Nächste Seite: Gleiche Lernstrategien wie Kleinkind
Um das zu ermöglichen, kommen dabei nicht nur Farbvideo und Kinect-Tiefensensor zum Einsatz, sondern auch nicht-visuelle Informationen. Das umfasst das Wissen des Roboters um sein alltägliches Umfeld und damit beispielsweise, ob ein potenziell interessantes Objekt auf einem Tisch, in einem Regal oder auf dem Boden liegt. Zudem kann HERB feststellen, ob ein Gegenstand beweglich und für ihn aufhebbar ist. Letzteres hat eine gewisse Ähnlichkeit damit, wie Babys Objekte begreifen - für sie ist das Anfassen, Drücken und Anknabbern ein normaler Lernprozesses.
«Der Ansatz ist sehr interessant. Man versucht schliesslich ständig, Robotern nicht alles selbst einprogrammieren zu müssen», bestätigt Stefan Heyer, Projektleiter des Assistenzroboter-Projekts FRIEND am Institut für Automatisierungstechnik der Universität Bremen. Dabei geht es aber keineswegs nur um Bequemlichkeit für Entwickler - gerade bei Assistenzrobotern ist es ein Vorteil, wenn die Benutzer sie möglichst wenig anleiten müssen. Bislang nutzen Roboter meist vorgegebene oder speziell antrainierte Datenbanken, um Gegenstände zu erkennen. So haben die CMU-Forscher für HERB digitale Modelle von Objekten erstellt, mit denen er interagieren soll, während der österreichische Pflegeroboter «Hobbit» Gegenstände gezielt per 3D-Scan erlernt . Im Gegensatz zu diesen gängigen Ansätzen zielt das neue «Lifelong Robotic Object Discovery» (LROD) darauf ab, dass der Roboter Gegenstände möglichst selbstständig entdeckt und sein Verständnis der Objekte dann weiterentwickelt. Nächste Seite: Gleiche Lernstrategien wie Kleinkind
Um das zu ermöglichen, kommen dabei nicht nur Farbvideo und Kinect-Tiefensensor zum Einsatz, sondern auch nicht-visuelle Informationen. Das umfasst das Wissen des Roboters um sein alltägliches Umfeld und damit beispielsweise, ob ein potenziell interessantes Objekt auf einem Tisch, in einem Regal oder auf dem Boden liegt. Zudem kann HERB feststellen, ob ein Gegenstand beweglich und für ihn aufhebbar ist. Letzteres hat eine gewisse Ähnlichkeit damit, wie Babys Objekte begreifen - für sie ist das Anfassen, Drücken und Anknabbern ein normaler Lernprozesses.
Ananas-Erfolg und Assitenz-Potenzial
Wie gut LROD funktioniert, hat das CMU-Team im Rahmen seiner Arbeit, die heute, Mittwoch, im Rahmen der IEEE International Conference on Robotics and Automation näher vorgestellt wird, auch durch Zufall herausgefunden. Einige Studenten hatten eine Ananas und Brötchen im Labor vergessen. Am nächsten Tag zeigte sich, dass HERB mittlerweile Modelle dieser Gegenstände entwickelt hatte und sie auch aufheben konnte. Genau hier sieht Heyer aber für die praktische Anwendung eine potenzielle Herausforderung. «Ein Buch und ein Glas sollte man doch recht unterschiedlich greifen», erklärt er. Die Frage sei, wie gut ein Roboter damit klarkommt.
Jedenfalls sieht das CMU-Team seinen Ansatz für den Assistenzbereich attraktiv. «Selbstständiges Lernen ist sehr gefragt. Das macht es einfacher für User», bestätigt Heyer. Denn gerade Personen, die einen Assistenzroboter brauchen, werden oft nicht die Möglichkeit oder Kompetenz haben, den Helfer zu programmieren oder zu trainieren. «Das ist sicher interessant in Bereichen, wo Abläufe relativ oft wiederkehren», meint der FRIEND-Projektleiter. Denn so könnten Roboter leichter auf Objekte reagieren, die Routineaufgaben wie Müllentsorgung oder Rasenmähen unerwartet stören. (www.pressetext.com)
Jedenfalls sieht das CMU-Team seinen Ansatz für den Assistenzbereich attraktiv. «Selbstständiges Lernen ist sehr gefragt. Das macht es einfacher für User», bestätigt Heyer. Denn gerade Personen, die einen Assistenzroboter brauchen, werden oft nicht die Möglichkeit oder Kompetenz haben, den Helfer zu programmieren oder zu trainieren. «Das ist sicher interessant in Bereichen, wo Abläufe relativ oft wiederkehren», meint der FRIEND-Projektleiter. Denn so könnten Roboter leichter auf Objekte reagieren, die Routineaufgaben wie Müllentsorgung oder Rasenmähen unerwartet stören. (www.pressetext.com)