Skip to main content

Ein lokal und global trainiertes neuronales Netz für Aufgaben der Mustererkennung

  • Conference paper
Mustererkennung 1997

Part of the book series: Informatik aktuell ((INFORMAT))

  • 151 Accesses

Zusammenfassung

In diesem Beitrag wird ein neues Verfahren entwickelt, das die Cluster—und LMS—Verfahren in einem Netz kombiniert. Das entwikkelte Cluster—Verfahren, das als LTC—( l ocally t rained c lusters) Algorithmus bezeichnet, trainiert die einzelnen Cluster (Subklassen) sukzessive mit der jeweiligen lokalen Datenmenge. Aufbauend auf diesen Subklassen wird ein vorwärtsgerichtetes Netz konstruiert, das dann mit einem LMS—Verfahren durch die gesamte, globale Datenmenge weiter verfeinert wird. Das trainierte Netz wird als LGT—( l ocally and g lobally t rained) Netz bezeichnet. Umfangreiche experimentelle Untersuchungen verifizieren die Vorteile dieses neu entwickelten Verfahrens.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 44.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 59.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. T. Kohonen, ”Self-Organizing Map,” Proc. of the IEEE, Vol.178, No. 9, Sept. pp. 1464 – 1480, 1990.

    Article  Google Scholar 

  2. D. L. Reilly, L. N. Cooper und C. Elbaum, ”A neural model for category learning,” Biol. Cybern., vol. 45, pp. 35 – 41, 1982.

    Article  Google Scholar 

  3. J. Schürmann, ”Neuronale Netze und die Klassischen Methoden der Mustererkennung,”FhG-Berichte, pp. 24–34, 1/1991.

    Google Scholar 

  4. D. E. Rumelhart, G. E. Hinton and R. J. Williams, ”Learning internal representations by error propagation,” in D.E. Rumelhart, J.L. McClelland (Eds.) Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Vol. 1, MIT Press, Cambridge, MA, pp. 318 – 362, 1986.

    Google Scholar 

  5. S. Chen, C. F. N. Cowan, and P. M. Grant, ”Orthogonal Least Squares Learning Algorithm for Radial Basis Function Networks,” IEEE Transaction on Neural Networks vol. 2, no. 2, pp. 302 – 309, March 1991.

    Article  Google Scholar 

  6. T. Denoeux and R. Lengelle, ”Initializing back propagation networks with prototypes,” Neural Networks, Vol. 6, pp. 351 – 363, 1993.

    Article  Google Scholar 

  7. The Math Works, Inc., ”Neural Network Toolbox User’s Guide: For Use with MAT-LAB,” January 1994.

    Google Scholar 

  8. K. J. Lang and M. J. Witbrock, ”Learning to tell two spirals apart,” Proc. of the 1988 Connectionist Models Summer School, Morgan Kaufmann, pp. 52 – 59, 1989.

    Google Scholar 

  9. S. E. Fahlman, Ch. Lebiere, ”The cascade-correlation learning architecture,”In D. S. Touretzky (Eds.), Advances in neural information processing systems 2, pp. 524–532, Morgan Kaufman, Inc., 1990.

    Google Scholar 

  10. D.H. Deterding,”Speaker Normalization for Automatic Speech Recognition,” PhD Thesis, University of Cambridge, 1989.

    Google Scholar 

  11. A.J. Robinson, F. Fallside, ”A Dynamic Connectionist Model for Phoneme Recognition,” Proceedings of nEuro’88, Paris, June, 1988.

    Google Scholar 

  12. L. Prechelt, ”PROBEN 1-A Set of Neural Network Benchmark Problems and Bench-marking Rules,” Technical Report 21/94 Fakultät für Informatik, Universität Karlsruhe, Germany, September 1994.

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 1997 Springer-Verlag Berlin Heidelberg

About this paper

Cite this paper

Jiang, X., vom Stein, HD. (1997). Ein lokal und global trainiertes neuronales Netz für Aufgaben der Mustererkennung. In: Paulus, E., Wahl, F.M. (eds) Mustererkennung 1997. Informatik aktuell. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-60893-3_11

Download citation

  • DOI: https://doi.org/10.1007/978-3-642-60893-3_11

  • Publisher Name: Springer, Berlin, Heidelberg

  • Print ISBN: 978-3-540-63426-3

  • Online ISBN: 978-3-642-60893-3

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics