Pittsburgh/Bremen – Für Roboter ist es oft schwierig, insbesondere neue Gegenstände in ihrer Umgebung als solche zu erkennen. Doch Forscher am Robotics Institute der Carnegie Mellon University (CMU) http://www.ri.cmu.edu haben nun einen Ansatz entwickelt, mit dem ihr Roboter „HERB“ (Home-Exploring Robot Butler) besser neue Objekte erfassen und sein Verständnis der Gegenstände weiterentwickeln kann. Damit das gelingt, verlässt er sich nicht nur auf das, was seine Roboter-Augen sehen – er nutzt auch nicht-visuelle Informationen wie sein Wissen um die Umgebung und, ob er einen Gegenstand anfassen und aufheben kann.
„Der Ansatz ist sehr interessant. Man versucht schließlich ständig, Robotern nicht alles selbst einprogrammieren zu müssen“, bestätigt Stefan Heyer, Projektleiter des Assistenzroboter-Projekts FRIEND http://www.friend4you.eu am Institut für Automatisierungstechnik der Universität Bremen, im Gespräch mit pressetext. Dabei geht es aber keineswegs nur um Bequemlichkeit für Entwickler – gerade bei Assistenzrobotern ist es ein Vorteil, wenn die Benutzer sie möglichst wenig anleiten müssen.
Laufend lernen statt programmieren
Bislang nutzen Roboter meist vorgegebene oder speziell antrainierte Datenbanken, um Gegenstände zu erkennen. So haben die CMU-Forscher für HERB digitale Modelle von Objekten erstellt, mit denen er interagieren soll, während der österreichische Pflegeroboter „Hobbit“ Gegenstände gezielt per 3D-Scan erlernt (pressetext berichtete: http://pressetext.com/news/20130314016 ). Im Gegensatz zu diesen gängigen Ansätzen zielt das neue „Lifelong Robotic Object Discovery“ (LROD) darauf ab, dass der Roboter Gegenstände möglichst selbstständig entdeckt und sein Verständnis der Objekte dann weiterentwickelt.
Um das zu ermöglichen, kommen dabei nicht nur Farbvideo und Kinect-Tiefensensor zum Einsatz, sondern auch nicht-visuelle Informationen. Das umfasst das Wissen des Roboters um sein alltägliches Umfeld und damit beispielsweise, ob ein potenziell interessantes Objekt auf einem Tisch, in einem Regal oder auf dem Boden liegt. Zudem kann HERB feststellen, ob ein Gegenstand beweglich und für ihn aufhebbar ist. Letzteres hat eine gewisse Ähnlichkeit damit, wie Babys Objekte begreifen – für sie ist das Anfassen, Drücken und Anknabbern ein normaler Lernprozesses.
Ananas-Erfolg und Assitenz-Potenzial
Wie gut LROD funktioniert, hat das CMU-Team im Rahmen seiner Arbeit, die heute, Mittwoch, im Rahmen der IEEE International Conference on Robotics and Automation http://www.icra2013.org näher vorgestellt wird, auch durch Zufall herausgefunden. Einige Studenten hatten eine Ananas und Brötchen im Labor vergessen. Am nächsten Tag zeigte sich, dass HERB mittlerweile Modelle dieser Gegenstände entwickelt hatte und sie auch aufheben konnte. Genau hier sieht Heyer aber für die praktische Anwendung eine potenzielle Herausforderung. „Ein Buch und ein Glas sollte man doch recht unterschiedlich greifen“, erklärt er. Die Frage sei, wie gut ein Roboter damit klarkommt.
Jedenfalls sieht das CMU-Team seinen Ansatz für den Assistenzbereich attraktiv. „Selbstständiges Lernen ist sehr gefragt. Das macht es einfacher für User“, bestätigt Heyer. Denn gerade Personen, die einen Assistenzroboter brauchen, werden oft nicht die Möglichkeit oder Kompetenz haben, den Helfer zu programmieren oder zu trainieren. „Das ist sicher interessant in Bereichen, wo Abläufe relativ oft wiederkehren“, meint der FRIEND-Projektleiter. Denn so könnten Roboter leichter auf Objekte reagieren, die Routineaufgaben wie Müllentsorgung oder Rasenmähen unerwartet stören.
pressetext.redaktionAnsprechpartner: Thomas Pichler
Gegenstände begreifen: Sehen allein reicht nicht (Foto: cmu.edu)