Zusammenfassung
Wir alle generieren täglich große Mengen an potenziell sensiblen Daten: Wörter, die wir auf unseren Smartphones eingeben, Produkte, die wir online kaufen, Gesundheitsdaten, die wir in Apps erfassen. All diese Daten haben eins gemeinsam – sie werden an verschiedensten Stellen in Machine-Learning-Modelle (ML-Modelle) eingespeist. Mithilfe der Zusammenhänge, die sich in diesen ,,Trainingsdaten‘‘ finden lassen, können die Modelle immer präzisere Voraussagen hinsichtlich unseres Verhaltens oder anderer Fragestellungen treffen. Lange Zeit bestand die Annahme, dass dieser Prozess eine Einbahnstraße ist: Wegen der komplexen Datenverarbeitung in ML-Modellen kann man zwar Trainingsdaten einspeisen, sie aber später nicht wiederherstellen. In den letzten Jahren wurde jedoch gezeigt, dass anhand gezielter Attacken gegen trainierte Modelle Rückschlüsse auf die ursprünglichen Daten gezogen werden können. Der Schutz der Privatsphäre in ML-Modellen ist daher, insbesondere vor dem Hintergrund der Anforderungen der Datenschutz- Grundverordnung, ein Thema von großer Bedeutung. Er kann und muss durch den Einsatz geeigneter Methoden, wie z.B. Differential Privacy, aktiv gestärkt werden.
Literatur
Samuel, Arthur L. “Some studies in machine learning using the game of checkers.” IBM Journal of research and development 3, no. 3, pp. 210-229. 1959.
Tesauro, Gerald. “Temporal difference learning and TD-Gammon.” Communications of the ACM 38, no. 3, pp. 58-68. 1995.
Fredrikson, Matt, Somesh Jha, and Thomas Ristenpart. “Model inversion attacks that exploit confidence information and basic countermeasures.” In Proceedings of the 22nd ACM SIGSAC Conference on Computer and Communications Security, pp. 1322-1333. 2015.
Li, Ninghui, Wahbeh Qardaji, Dong Su, Yi Wu, and Weining Yang. “Membership privacy: a unifying framework for privacy definitions.” In Proceedings of the 2013 ACM SIGSAC conference on Computer & communications security, pp. 889-900. 2013.
Shokri, Reza, Marco Stronati, Congzheng Song, and Vitaly Shmatikov. “Membership inference attacks against machine learning models.” In 2017 IEEE Symposium on Security and Privacy (SP), pp. 3-18. 2017.
Cynthia, Dwork. “Differential privacy.” Automata, languages and programming, pp. 1-12, 2006.
McMahan, H. Brendan, Galen Andrew, Ulfar Erlingsson, Steve Chien, Ilya Mironov, Nicolas Papernot, and Peter Kairouz. “A general approach to adding differential privacy to iterative training procedures.” arXiv preprint arXiv:1812.06210. 2018.
McMahan, H. Brendan, Galen Andrew, Ulfar Erlingsson, Steve Chien, Ilya Mironov, Nicolas Papernot, and Peter Kairouz. “A general approach to adding differential privacy to iterative training procedures.” arXiv preprint arXiv:1812.0621. 2018. https://github.com/tensorflow/privacy/tree/master/tensorflow_privacy/privacy/optimizers (abgerufen 15.03.2021)
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
About this article
Cite this article
Boenisch, F. Privatsphäre und Maschinelles Lernen . Datenschutz Datensich 45, 448–452 (2021). https://doi.org/10.1007/s11623-021-1469-3
Published:
Issue Date:
DOI: https://doi.org/10.1007/s11623-021-1469-3