Skip to main content

Visuelles Lernen zur Lokalisierung eines mobilen Roboters

  • Conference paper
Book cover Autonome Mobile Systeme 1998

Part of the book series: Informatik aktuell ((INFORMAT))

  • 187 Accesses

Zusammenfassung

In dieser Arbeit stellen wir eine Lösung zum visuellen Lernen von Roboterpositionen über die Erkennung natürlicher Szenen mit einem einfachen Kamerasystem vor. Als Eingangsinformationen dienen allein omnidirektionale Grauwertbilder der Umgebung. Für die Anwendung in einer globalen Umgebung wurde die Klassifizierung verschiedenster Situationen durchgeführt. Sobald das Kamerasystem zur Laufzeit eine neue Szene erfaßt, wird das Bild in den globalen Eigenraum projiziert und der nächstliegenden benachbarten Situation zugeordnet. Anschließend wird der entsprechendelokale Controlleraktiviert, welcher die Position automatisch über Interpolation berechnet. Praktisch durch¬geführte Experimente mit dem Khepera-Roboter zeigen die Effizienz dieses Verfahrens.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 54.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 69.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. R. Cassinis, D. Grana, and A. RizzL Using Color Information in an Omni-directional Perception System for Autonmous Robot Localization. InProcee¬dings of the EUROBOT 796 Conference, pages 172–176, 1996.

    Google Scholar 

  2. G. Dudek and C. Zhang. Vision-based robot localization without explicit ob¬ject models. InProceedings of the IEEE International Conference on Robotics and Automation, pages 76–82, 1996.

    Google Scholar 

  3. J. A. Hancock and C. E. Thorpe. ELVIS: Eigenvectors for Land Vehicle Image System. Technical Report CMU—RI—TR—94—43, The Robotics Institue, Carnegie Mellon Univeristy, 1994.

    Google Scholar 

  4. Y. Matsumoto, M. Inaba, and H. Inoue. Visual Navigation using View- Sequenced Route Representation. InProceedings of the IEEE International Conference on Robotics and Automation, pages 83 - 94, 1996.

    Google Scholar 

  5. T. Sanger. Anoptimaliiy principle for unsupervised learning. Advances in neural information processing systems 1. D. S. Touretzky (ed.), Morgan Kauf¬mann, San Mateo, CA, 1989.

    Google Scholar 

  6. Y. Yagi and M. Yashida. Real-time generation of environment map and obstacle avoidance using omnidirectional image sensor with conic mirror. InProcee¬dings of the IEEE Conference on Computer Vision & Pattern Recognition, pages 160–165, 1991.

    Chapter  Google Scholar 

  7. J. Zhang and A. Knoll. Constructing fuzzy controllers with B-spline models - principles and applications. International Journal of Intelligent Systems, 13 (2/3): 257 — 285j Feb./Mar. 1998.

    MATH  Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 1999 Springer-Verlag Berlin Heidelberg

About this paper

Cite this paper

Zhang, J., Schwert, V., Knoll, A. (1999). Visuelles Lernen zur Lokalisierung eines mobilen Roboters. In: Wörn, H., Dillmann, R., Henrich, D. (eds) Autonome Mobile Systeme 1998. Informatik aktuell. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-60043-2_2

Download citation

  • DOI: https://doi.org/10.1007/978-3-642-60043-2_2

  • Publisher Name: Springer, Berlin, Heidelberg

  • Print ISBN: 978-3-540-65192-5

  • Online ISBN: 978-3-642-60043-2

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics