Zusammenfassung
Die Verarbeitung von großen Datenmengen erzeugt in Unternehmen hohe Kosten durch Datenqualitätsprobleme. Im Jahr 2007 erklärte man daher das Data Management zum strategischen Thema der IT. Lösungen, um die Datenqualität messbar zu machen, wurden in den darauf folgenden vier Jahren konzipiert, auf- und ausgebaut. Für die Identifikation von Brandherden in den IT-Prozessen wurde ein Verfahren entwickelt. So konnten relevante Datenqualitätsdimensionen, Datenobjekte und Messregeln ausgewählt werden. Zur Durchführung der Messungen wurde eine IT-Plattform aufgebaut. Die Darstellung der Messergebnisse erfolgt durch ein adressatengerechtes Dashboard.
Literatur
DeMarco, T.: Controlling Software Projects: Management, Measurement, and Estimation. Prentice Hall, 1982.
www.imaa-institute.org/statistics-mer-gers-acquisitions.html#MergersAcquisitions_Germany.
www.nzz.ch/finanzen/nachrichten/jetzt_firmen_kaufen_1.742938.html, 2008.
Wang, R. Y.; Strong, D. M.: Beyond Accuracy: What Data Quality Means to Data Consumers. Journal of Management Information Systems 12 (1996), 4, pp. 5–33.
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
About this article
Cite this article
Glaß, M., Schmidt, T. Aufbau und Weiterentwicklung der Datenqualitätsmessungen bei der Telekom Deutschland GmbH. HMD 48, 56–63 (2011). https://doi.org/10.1007/BF03340587
Published:
Issue Date:
DOI: https://doi.org/10.1007/BF03340587