Skip to main content

Automatischer Entwurf paralleler neuronaler Netze für Mehrklassenprobleme in der Mustererkennung

  • Conference paper
  • 111 Accesses

Part of the book series: Informatik aktuell ((INFORMAT))

Zusammenfassung

Ein automatisches Verfahren für den Entwurf paralleler neuronaler Netzwerke zur Behandlung von Mehrklassenproblemen in der Mustererkennung wird vorgestellt. Ausgehend von mehrschichtigen neuronalen Netzwerken wird ein mehrstufiger Klassifikator entwickelt. Die Verwendung harter Entscheider als Aktivierungsfunktionen von Neuronen führt zu einer binären Verarbeitung von Informationen im neuronalen Netzwerk. Die Parallelisierung der Mehrklassenaufgabe in einzelne Zweiklassenprobleme beruht auf einer Optimierung im binären Entscheidungsraum. Die einzelnen Teilklassiiikationen werden mittles neuronaler Netzwerke realisiert. Die entwickelten Lernverfahren in den einzelnen Schichten des neuronalen Netzwerkes basieren auf geometrische und statistische Eigenschaften der internen Repräsentation von klassifizierten Mustern einer Lernstichprobe. Die Anwendung statistischer Methoden gestattet die Angabe eines Konfidenzmaßes für Klassifikationsentscheidungen. Die dargestellten Ergebnisse des Klassifikators beziehen sich auf die Erkennung handgeschriebener alphanumerischer Zeichen.

This is a preview of subscription content, log in via an institution.

Buying options

Chapter
USD   29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD   54.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD   69.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Learn about institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. G. Sagerer. Neuronal, Statistisch, Wissensbasiert: Ein Beitrag zur Paradigmendis-kussion für die Mustererkennung. In S.J. Pöppl and H. Handels, editors, Mustererkennung 1993, Informatik aktuell, pages 158–177. Springer-Verlag, 1986.

    Google Scholar 

  2. L. Xu, A. Krzyzak, and C.Y. Suen. Methods of Combining Multiple Classifiers and Their Applications to Handwriting Recognition. IEEE Trans, on Systems, Man, and Cybernetics, 22 (3): 418–435, 1992.

    Article  Google Scholar 

  3. N. Nilsson. The Mathematical Foundation of Learning Machines. Morgan Kaufmann Publishers San Mateo, California, 1990.

    Google Scholar 

  4. E. B. Baum. On the Capabilities of Multilayer Perceptrons. J. of Complexity, 4: 193–215, 1988.

    Article  MATH  MathSciNet  Google Scholar 

  5. E. B. Baum and D. Haussler. What Size Net Gives Valid Generalization? Neural Comp., 1: 151–160, 1989.

    Article  Google Scholar 

  6. T. M. Cover. Geometrical and Statistical Properties of Systems of Linear Inequalities with Applications in Pattern Recognition. IEEE Trans, on Elect. Comp., 14: 326–334, 1965.

    Article  MATH  Google Scholar 

  7. W. Utschick. How To Improve Multi Layer Perceptrons Using Statistics. Technical Report TUM-LNS-TR-95-4, Technical University Munich, 1995.

    Google Scholar 

  8. B. Widrow. ADALINE and MADALINE. In First International Conference on Neural Networks, volume 1, pages 143–158. IEEE, 1987.

    Google Scholar 

  9. B. Widrow, R.G. Winter, and R.A. Baxter. Layered Neural Nets for Pattern Recognition. IEEE Trans, on Acoustics, Speech, and Signal Processing, 36 (7): 1109–1118, 1988.

    Article  MATH  Google Scholar 

  10. B. Widrow and M.A. Lehr. 30 Years of Adaptive Neural Networks: Perceptron, Madaline, and Backpropagation. IEEE Proc., 78(9):1415–1441, 1990.

    Article  Google Scholar 

  11. P. Nachbar. Entwurf robuster neuronaler Netze. PhD thesis, Technical University Munich, Institute for Network Theory and Circuit Design, 1994.

    Google Scholar 

  12. J.A. Nossek, P. Nachbar, and A.J. Schuler. Comparison of Algorithms for Feed-forward Multilayer Neural Nets. ISCAS, Atlanta, to be published, 1996.

    Google Scholar 

  13. W. Utschick and J.A. Nossek. Bayesian Adaptation of Hidden Layers in Boolean Feedforward Neural Networks. 13th International Conference on Pattern Recognition, Vienna, 1996.

    Google Scholar 

  14. P. Nachbar, J. Strobl, and J.A. Nossek. The generalized adatron algorithm. In International Symposium on Circuits and Systems, volume 4, pages 2152–2156. IEEE, 1993.

    Google Scholar 

  15. H. Heuser and H. Wolf. Algebra, Funktionalanalysis und Codierung. Teubner, 1986.

    MATH  Google Scholar 

  16. W. Utschick. Automatischer Entwurf paralleler neuronaler Netzwerke. Technical Report TUM-LNS-TR-96-3, Technische Universität München, 1996.

    Google Scholar 

  17. The state-of-the-art in OCR is subject of NIST conference. Intelligence, 9(6):l–5, 1992.

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 1996 Springer-Verlag Berlin Heidelberg

About this paper

Cite this paper

Utschick, W., Nossek, J.A. (1996). Automatischer Entwurf paralleler neuronaler Netze für Mehrklassenprobleme in der Mustererkennung. In: Jähne, B., Geißler, P., Haußecker, H., Hering, F. (eds) Mustererkennung 1996. Informatik aktuell. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-80294-2_48

Download citation

  • DOI: https://doi.org/10.1007/978-3-642-80294-2_48

  • Publisher Name: Springer, Berlin, Heidelberg

  • Print ISBN: 978-3-540-61585-9

  • Online ISBN: 978-3-642-80294-2

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics