Dissertation
Camera-based humanoid robot navigation
Personen-Informationen ausblenden
Erschienen in
Bibliographische Angaben
DOI:
10.6094/UNIFR/10071
URN:
urn:nbn:de:bsz:25-freidok-100710
Sprache:
englisch
Informatik, Information und Wissen, allgemeine Werke / Informatik, Information und Wissen, allgemeine Werke / Informatik
Erscheinungsjahr: 2015
Abstract
-
englisch
-
deutsch
Im letzten Jahrzehnt stieg die Anzahl der Roboter, die im Haushalt eingesetzt werden, deutlich an. Dabei dominieren zwei Arten von Robotern, nämlich solche die Staubsaugen und solche, die Rasen mähen. Dass gerade diese beiden Typen so verbreitet sind, mag daran liegen, dass diese Aufgaben anhand relativ simpler Durchführungsstrategien umgesetzt werden können. Ein Roboter etwa, der mit konstanter Geschwindigkeit durch einen Raum fährt und dabei zufällig seine Richtung ändert, hat irgendwann jede erreichbare Fläche desselben überquert. Natürlich gibt es mittlerweile auch Roboter, die ihre Aufgabe zielgerichteter erledigen, zum Beispiel indem sie ihre Position innerhalb eines Raumes bestimmen und so den Bewegungsablauf optimieren. Dennoch sind solche Roboter in ihrer Funktionsvielfalt sehr eingeschränkt und weit von dem entfernt, was man aus der Fiktion als Service-Roboter kennt.
Wir hätten gerne einen Roboter, der vielfältige Aufgaben im Haushalt übernimmt - etwa Wäsche aufhängen, Geschirr waschen oder eben auch den Boden saugen. Er soll uns im Alltag zur Hand gehen und dabei auch anspruchsvolle Aufgaben erledigen. Vor dem Hintergrund von Katastrophen wie der des havarierten Atomkraftwerks in Fukushima stellt sich zudem die Frage, ob Roboter nicht auch in solchen Szenarien eingesetzt werden könnten, um Schlimmeres zu verhindern und Menschenleben zu schützen. Denn ein Roboter lässt sich ersetzen, ein Mensch dagegen nicht. So könnten Roboter in Gefahrensituationen eingesetzt werden und beispielsweise wichtige Informationen über den Zustand beschädigter Gebäude liefern, Wege freiräumen, Feuer löschen oder Notstrom-Aggregate in Stand setzen. Angesichts dieser Möglichkeiten ist es sinnvoll, sich mit der Weiterentwicklung von autonomen Robotern zu beschäftigen. Hierzu leistet diese Arbeit einen wichtigen Beitrag.
Nach der Katastrophe von Fukushima wurde die Robotics Challenge von der US-amerikanischen DARPA (Defense Advanced Research Projects Agency) ins Leben gerufen. Der Wettkampf soll die Entwicklung von Robotern für den Einsatz in Katastrophenszenarien fördern. Dabei richten sich die Anforderungen an die Roboter an Tätigkeiten aus, die in solchen Szenarien von Bedeutung sind. Dazu gehört es etwa, unwegsames Gelände zu überschreiten, Trümmerteile wegzuräumen, Leitern zu erklimmen, oder gar Wände mit entsprechendem Werkzeug einzureißen. Die hohe Komplexität der genannten Aufgaben hat das Interesse einer Reihe von internationalen Forschungsgruppen geweckt und zur Teilnahme am Wettbewerb animiert. Interessant dabei ist, dass sich beinahe alle Teilnehmer mit der Entwicklung von menschenähnlichen, also humanoider Robotern, befasst haben. Dies könnte daran liegen, dass die Roboter aufgrund ihrer Physis in besonderem Maße für solche Aufgaben geeignet erscheinen.
Eines der Hauptprobleme bei der Entwicklung von autonomen Robotern ist die Navigation. Um sich in seiner Umgebung zurechtfinden zu können, muss ein Roboter seine eigene Position bestimmen, Hindernisse erkennen und entsprechen darauf reagieren sowie eine interne Karte seiner Umgebung anlegen können. Im Hinblick auf die genannten Aufgaben muss er zudem dazu fähig sein, Objekte wahrzunehmen und zu manipulieren, etwa um Trümmerteile wegzuräumen, die den Eingang zu einem Gebäude versperren. Die vielfältigen Teilprobleme der Navigation müssen gelöst werden, damit Roboter autonom agieren können. Die Schwierigkeit liegt dabei darin, dass sämtliches Handeln und Wahrnehmen des Roboters von Unsicherheit betroffen ist. Das betrifft sowohl das Ausführen von Aktionen als auch die Wahrnehmung oder Perzeption der Umgebung. Zum Beispiel sind Sensordaten oft fehlerhaft und müssen dennoch korrekt interpretiert werden. Verschiedene Daten sind hierbei miteinander zu assoziieren, wobei Ambiguitäten auftreten können. Das Ausführen von Bewegungen ist ebenso fehleranfällig, zum Beispiel wenn der Roboter aufgrund der Materialbeschaffenheit seiner Fußsohlen auf dem Boden rutscht. Des Weiteren liegen dem Roboter keine perfekten Modelle über sich selbst und die Gegenstände in seiner Umgebung vor. Das kann an Fertigungstoleranzen bei der Herstellung des Roboters liegen oder weil nicht alle physikalischen Zusammenhänge modelliert oder bekannt sind. Speziell bei humanoiden Robotern muss mit weiteren Schwierigkeiten umgegangen werden. Dazu gehören zum Beispiel die hohe Komplexität, d.h. die Anzahl der Freiheitsgrade, die zu kontrollieren sind. Die Interpretation der Daten wird zusätzlich dadurch erschwert, dass die Sensormessungen stark vom Laufverhalten des Roboters beeinflusst werden. Außerdem müssen weitere Bedingungen, etwa bezüglich der Stabilität oder Balance des Roboters, erfüllt sein. Grundsätzlich müssen also folgende Fragen beantwortet werden, um eine zuverlässige und robuste Navigation für humanoide Roboter zu ermöglichen:
• Wie kann der Roboter sein Wissen über sich selbst verbessern?
• Woher weiß der Roboter, welche Bereiche er sicher betreten kann?
• Wie kann der Roboter wissen, wo er sich in seiner Umgebung befindet?
• Wie kann er seine Umgebung überhaupt wahrnehmen und geeignet intern repräsentieren?
• Wie kann der Roboter Hindernisse auf seinem Weg erkennen und angemessen darauf reagieren?
• Wie kann ein humanoider Roboter seine inhärenten Bewegungsfähigkeiten nutzen um schwierige Passagen zu meistern?
• Wie kann der Roboter Objekte wahrnehmen und manipulieren?
Ziel dieser Arbeit ist es, diese Fragen zu beantworten. Zuerst stellen wir ein Verfahren zur Selbstkalibrierung für humanoide Roboter vor. Hierbei beobachtet der Roboter mithilfe seiner Kamera Markierungen an seinen Endeffektoren. Unser Ansatz minimiert anschließend den Fehler zwischen Modellvorhersage und Beobachtungen um die Kalibrierungsparameter zu bestimmen. Dazu gehören die Referenzierung der Gelenk-Inkrementalgeber sowie die intrinsischen und extrinsischen Parameter der Kamera. Darüber hinaus präsentieren wir eine Methode, die Roboterkonfigurationen erzeugt und geschickt auswählt, sodass nur wenige Konfigurationen notwendig sind, um die Parameter zu bestimmen. Das Wissen, welches der Roboter dadurch über sich selbst gewinnt, verbessert seine Fähigkeit, verschiedene Beobachtungen zueinander in Relation zu setzen. Diese Fähigkeit bildet die Grundlage für alle Navigationsfähigkeiten.
Des Weiteren stellen wir eine Methode zur Klassifikation der Traversierbarkeit anhand von Kamerabildern vor. Wir klassifizieren das gesamte Kamerabild mittels erscheinungsbasierten Klassifikatoren, welche selbständig, d.h. ohne manuelles Training, lernen. Dazu erkennt unser Ansatz anhand eines geometrischen Modells Merkmale in den Kamerabildern des Roboters, welche planare Bereiche auf dem Boden repräsentieren. Darüber hinaus wird anhand der klassifizierten Kamerabilder eine Belegtheitskarte der Umgebung erstellt. Bei diesem Ansatz werden lediglich Daten einer monokularen Kamera und der Odometrie verwendet, wodurch er auf vielen Robotern einsetzbar ist.
Für Roboter, die mit einer Tiefenkamera ausgestattet sind, stellen wir ein integriertes Navigationssystem vor. Dieses besteht aus der 6D-Lokalisierung des Roboters in einer gegebenen Karte, einem volumetrischen Kartierungsverfahren für unbekannte oder nicht-statische Bereiche der Umgebung, sowie einem Pfadplanungsansatz zur Vermeidung von Kollisionen. Das System ist insbesondere für die Navigation in komplexen Szenarien mit mehreren Stockwerken ausgelegt.
Darauf aufbauend stellen wir Erweiterungen vor, die das Navigieren in Umgebungen ermöglicht, in denen dies zum Beispiel durch viele, verstreute Hindernisse oder enge Passagen erschwert ist. Zu diesen Techniken gehört eine Komponente zur Planung der Fußschritte des Roboters, die durch eine Methode ergänzt wird, die die Umgebung effizient auf mögliche Kollisionen testet und dabei den ganzen Körper des Roboters berücksichtigt und nicht nur etwa die Fußspuren. Dadurch wird der Roboter befähigt, auch Hindernisse sicher zu übersteigen oder zu besteigen. Darüber hinaus reduziert unser Ansatz anhand von Messungen der Tiefenkamera den Drift der Odometrie, um konsistente Karten von unbekannten Umgebungen erstellen zu können.
Schließlich beschreibt die Arbeit ein Verfahren zur akkuraten Manipulation von Objekten. Konkret wird dieses am Beispiel eines Metallophon-spielenden Roboters implementiert. Dazu schätzt der Roboter die Pose (Position und Orientierung) sowohl der Klöppel in seinen Greifern als auch die des Instruments. Mittels inverser Kinematik (IK) werden Schlagkonfigurationen für die Arme des Roboters berechnet und ausgeführt. Der Roboter prüft selbständig anhand visueller und akustischer Signale, ob das Schlagen der Klangtaste erfolgreich war. Für jede Taste werden Konfigurationen gespeichert, so dass der Roboter anschließend ganze Lieder selbständig spielen kann.
Alle vorgestellten Methoden wurden praktisch implementiert und sorgfältig anhand eines Nao-Roboters evaluiert. Die gezeigten Ergebnisse bestätigen, dass diese Arbeit einen wichtigen Beitrag zur Navigation von humanoiden Robotern darstellt und deren Autonomie verbessert, selbst für günstige Roboter mit beschränkten Ressourcen und Hardware.
Beschreibung
Dateien
Lizenz
Dissertation_Daniel_Maier.pdf
SHA256 checksum: ad3f41d9ac91d99623660506af53d644add8999391b143d15cea7d8266755c0e
Download
(10.16 MB)
Beschreibung der Forschungsdaten
Relationen
Laden...
Laden...
Prüfungsangaben
Fakultät:
Technische Fakultät
Betreuer:in:
Bennewitz, Maren
Prüfungsdatum: 10.04.2015
Korrekturanfrage
Vielen Dank für Ihre Korrekturanfrage. Wir werden uns um Ihre Anfrage kümmern und uns ggf. über die angegebene E-Mail-Adresse bei Ihnen zurückmelden. Bitte haben Sie Verständnis dafür, dass die Korrektur unter Umständen einige Tage dauern kann.
Es ist ein Fehler aufgetreten. Bitte versuchen Sie es später noch einmal.