Skip to main content
Log in

Franziska Boenisch

Privatsphäre und Maschinelles Lernen

Über Gefahren und Schutzmaßnahmen

  • Schwerpunkt
  • Published:
Datenschutz und Datensicherheit - DuD Aims and scope Submit manuscript

Zusammenfassung

Wir alle generieren täglich große Mengen an potenziell sensiblen Daten: Wörter, die wir auf unseren Smartphones eingeben, Produkte, die wir online kaufen, Gesundheitsdaten, die wir in Apps erfassen. All diese Daten haben eins gemeinsam – sie werden an verschiedensten Stellen in Machine-Learning-Modelle (ML-Modelle) eingespeist. Mithilfe der Zusammenhänge, die sich in diesen ,,Trainingsdaten‘‘ finden lassen, können die Modelle immer präzisere Voraussagen hinsichtlich unseres Verhaltens oder anderer Fragestellungen treffen. Lange Zeit bestand die Annahme, dass dieser Prozess eine Einbahnstraße ist: Wegen der komplexen Datenverarbeitung in ML-Modellen kann man zwar Trainingsdaten einspeisen, sie aber später nicht wiederherstellen. In den letzten Jahren wurde jedoch gezeigt, dass anhand gezielter Attacken gegen trainierte Modelle Rückschlüsse auf die ursprünglichen Daten gezogen werden können. Der Schutz der Privatsphäre in ML-Modellen ist daher, insbesondere vor dem Hintergrund der Anforderungen der Datenschutz- Grundverordnung, ein Thema von großer Bedeutung. Er kann und muss durch den Einsatz geeigneter Methoden, wie z.B. Differential Privacy, aktiv gestärkt werden.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Literatur

  1. Samuel, Arthur L. “Some studies in machine learning using the game of checkers.” IBM Journal of research and development 3, no. 3, pp. 210-229. 1959.

    Article  MathSciNet  Google Scholar 

  2. Tesauro, Gerald. “Temporal difference learning and TD-Gammon.” Communications of the ACM 38, no. 3, pp. 58-68. 1995.

    Article  Google Scholar 

  3. Fredrikson, Matt, Somesh Jha, and Thomas Ristenpart. “Model inversion attacks that exploit confidence information and basic countermeasures.” In Proceedings of the 22nd ACM SIGSAC Conference on Computer and Communications Security, pp. 1322-1333. 2015.

  4. Li, Ninghui, Wahbeh Qardaji, Dong Su, Yi Wu, and Weining Yang. “Membership privacy: a unifying framework for privacy definitions.” In Proceedings of the 2013 ACM SIGSAC conference on Computer & communications security, pp. 889-900. 2013.

  5. Shokri, Reza, Marco Stronati, Congzheng Song, and Vitaly Shmatikov. “Membership inference attacks against machine learning models.” In 2017 IEEE Symposium on Security and Privacy (SP), pp. 3-18. 2017.

  6. Cynthia, Dwork. “Differential privacy.” Automata, languages and programming, pp. 1-12, 2006.

  7. McMahan, H. Brendan, Galen Andrew, Ulfar Erlingsson, Steve Chien, Ilya Mironov, Nicolas Papernot, and Peter Kairouz. “A general approach to adding differential privacy to iterative training procedures.” arXiv preprint arXiv:1812.06210. 2018.

  8. McMahan, H. Brendan, Galen Andrew, Ulfar Erlingsson, Steve Chien, Ilya Mironov, Nicolas Papernot, and Peter Kairouz. “A general approach to adding differential privacy to iterative training procedures.” arXiv preprint arXiv:1812.0621. 2018. https://github.com/tensorflow/privacy/tree/master/tensorflow_privacy/privacy/optimizers (abgerufen 15.03.2021)

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Franziska Boenisch.

Rights and permissions

Reprints and permissions

About this article

Check for updates. Verify currency and authenticity via CrossMark

Cite this article

Boenisch, F. Privatsphäre und Maschinelles Lernen . Datenschutz Datensich 45, 448–452 (2021). https://doi.org/10.1007/s11623-021-1469-3

Download citation

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1007/s11623-021-1469-3

Navigation