Skip to main content
Log in

Untersuchungen an Binärprädiktoren, insbesondere bezüglich ihrer Anpassungsfähigkeit und ihrer Vorhersageleistung gegenüber Versuchspersonen

  • Published:
Kybernetik Aims and scope Submit manuscript

Summary

Binary sequences, whose statistical properties follow some law can be predicted with an accuracy depending on their statistical law. The conditional cumulative entropy is a measure of predictability and can be measured in a relatively simple way by using suitable methods. A binary predictor can be realized by the learning matrix for binary signals due to K. Steinbuch. The predictor system depends on the order of the statistical interdependence of the binary digits, which can be expressed in terms of cumulative redundancy. Binary sequences randomly generated by subjects show statistical interdependence between even three preceding digits. Experiments with 121 such binary sequences with 700 digits each have shown that on the average 73% of the digits can be predicted.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Institutional subscriptions

Similar content being viewed by others

Literatur

  1. Hagelbarger, D. W.: Seer, a Sequence Extrapolating Robot. IRE, Trans. Electronic Computers 5, H. 1, 1–7 (1956).

    Google Scholar 

  2. Foulkes, J. D.: A Class of Machines which determine the statistical Structure of a Sequence of Characters. IRE, WESCON Convention Rec. 4, 66–73 (1959).

    Google Scholar 

  3. Carnap, R.: Logical Foundations of Probability. Chicago: Chicago University Press 1950.

    Google Scholar 

  4. Hermes, H.: Die Rolle der Wahrscheinlichkeit beim Lernprozeß. In: Lernende Automaten, S. 32–39. München: Oldenbourg 1961.

    Google Scholar 

  5. Shannon, C. E.: A Mathematical Theory of Communication. Bell System Tech. J 27, 379–423, 623–656 (1948).

    Google Scholar 

  6. Zemanek, H.: Switching and Information Symposium on the Application of Switching Theory to Space Electronics Sunnyvale (California) Febr. 1962; pupl. by Stanford University Press.

  7. Carnap, R., u. W. Stegmüller: Induktive Logik und Wahrscheinlichkeit. Wien: Springer 1959.

    Google Scholar 

  8. Attneave, F.: Applications of Information Theory to Psychology. New York: Henry Holt & Co. 1959.

    Google Scholar 

  9. Miller, G. A., and W. G. Madow: On the maximum likelihood estimate of the Shannon-Wiener measure of Information. Air Force Cambridge Research Center: Technical Report No. 54-75, August 1954.

  10. Steinbuch, K.: Die Lernmatrix. Kybernetik 1, H. 1, 36–45 (1961).

    Google Scholar 

  11. Hönerloh, H.-J., u. H. Kraft: Realisierung der Lernmatrix. In: Lernende Automaten, S. 75–83. München: Oldenbourg 1961.

    Google Scholar 

  12. Beck, R.: Untersuchungen über zerstörungsfreies Ablesen von Lernmatrizen aus magnetischen Bauelementen mit phasenverschobenen Hochfrequenzströmen. Diplomarbeit Institut für Nachrichtenverarbeitung und Nachrichtenübertragung T. H. Karlsruhe 1961.

  13. Akyol, Y.: Untersuchungen über die elektronischen Steuerglieder für den Betrieb der binären Lernmatrix nach dem Differenzfrequenzverfahren. Diplomarbeit Institut für Nachrichtenverarbeitung und Nachrichtenübertragung T. H. Karlsruhe 1963.

  14. Walk, K.: Kumulative Information. NTZ-Nachrtech. Z. 16, 523–528 (1963).

    Google Scholar 

  15. 0. Verf. ang.: Informationstheorie, Begriffe. NTG 102, Entwurf 1962. NTZ-Nachrtechn. Z. 16, 46–49 (1963).

  16. Berger, E. R., u. H. Piloty: Erläuterungen zu den in der Informationstheorie verwendeten Begriffen der mathematischen Statistik. NTZ-Nachrtechn. Z. 16, 49–52 (1963).

    Google Scholar 

  17. Duffing, P., u. M. Tschermak: Die Zähldrossel — ein magnetisches Schaltelement. Siemens-Z. 26, H. 3, 140–144 (1952).

    Google Scholar 

  18. Müller, G.: Der Magnetflußzähler. NTZ-Nachrtechn. Z. 14, S. 81 (1961).

    Google Scholar 

  19. Frank, H.: Die Lernmatrix als Modell für Informationspsychologie und Semantik. In: Lernende Automaten, S. 101–108. München: Oldenbourg 1961.

    Google Scholar 

  20. Mises, R. v.: Wahrscheinlichkeit, Statistik und Wahrheit, 3. Aufl. Wien 1953.

  21. Mises, R. v.: Wahrscheinlichkeitsrechnung und ihre Anwendung in der Statistik und theoretischen Physik. Wien 1931.

  22. Kolmogoroff, G. N.: Grundbegriffe der Wahrscheinlichkeitsrechnung. Berlin 1933.

  23. Gnedenko, B. W.: Lehrbuch der Wahrscheinlichkeitsrechnung. Berlin: Akademie-Verlag 1958.

    Google Scholar 

  24. Geigy, J. R.: Documenta Geigy. Wissenschaftliche Tabellen, 6. Aufl. Hrsg. J. R. Geigy AG, Pharmazeutische Abteilung, Red. Konrad Diem.

  25. Abramson, N.: Information Theory and Coding. New York: McGraw-Hill Book Co. Inc. 1963.

    Google Scholar 

  26. Basharin, G. P.: On a Statistical Estimate for the Entropy of a Sequence of Independent Random Variables. Theory Probability Appl. 4, No 3, 333–336 (1959).

    Google Scholar 

  27. Fey, P.: Informationstheorie. Berlin: Akademie-Verlag 1963.

    Google Scholar 

  28. Schmitt, E.: Der Binärprädiktor. Dissertation Fakultät für Maschinenwesen T. H. Karlsruhe 1964.

Download references

Author information

Authors and Affiliations

Authors

Additional information

Auszug aus der von der Fakultät für Maschinenwesen der Technischen Hochschule Karlsruhe genehmigten Dissertation [28].

Rights and permissions

Reprints and permissions

About this article

Cite this article

Schmitt, E. Untersuchungen an Binärprädiktoren, insbesondere bezüglich ihrer Anpassungsfähigkeit und ihrer Vorhersageleistung gegenüber Versuchspersonen. Kybernetik 2, 93–102 (1964). https://doi.org/10.1007/BF00306793

Download citation

  • Received:

  • Issue Date:

  • DOI: https://doi.org/10.1007/BF00306793

Navigation