Die Bedeutung des Produktionsfaktors Information hat in den vergangenen Jahren stark zugenommen. Unternehmen erkennen zusehends, dass sich aus der Analyse ihrer Geschäftsinformationen (Business Intelligence, Big Data, Data Science) entscheidend Wettbewerbsvorteile generieren lassen. Zusätzlich erfordern gesetzliche Auflagen, im Kontext der Compliance-Anforderungen BCBS 239, Basel II und III, SOX und Solvency II, ein Mindestmaß an Qualität der Daten und Prozesse im Berichtswesen und der Planung. Der Aufbau einer unternehmensweiten Datenverwaltung zählt deshalb weiterhin zu den großen Herausforderungen, denen sich IT und Management in den nächsten Jahren stellen müssen.
Das Thema Datenqualität ist ein wesentlicher Erfolgsfaktor für die Etablierung einer optimalen Informationsinfrastruktur. Eine Studie von „The Data Warehousing Institute“ (TDWI) aus dem Jahr 2002 bezifferte die Kosten durch schlechte Datenqualität in den USA auf ca. 622 Milliarden Dollar. Das Marktforschungsunternehmen Gartner konstatierte im Jahr 2006: „Schlechte Datenqualität kostet eine typische Organisation 20% ihres Umsatzes …“.
Die weltweite Finanz- und Weltwirtschaftskrise ab 2007 kann in der Rückschau ebenfalls als Datenqualitätskrise betrachtet werden. Trotz weitreichender Compliance-Anforderungen war und ist es auch im Jahr 2017 vielen Unternehmen der Finanzdienstleistungsbranche nicht möglich Ihre Risikodaten in angemessener Zeit so zu aggregieren und aufzubereiten, daß Sie ihre Risiken angemessen steuern können.
In der Ära von Big Data, in der Daten als das neue Öl begriffen wird und sich die weltweit verfügbare Datenmenge von Jahr zu Jahr vervielfacht, werden die Anforderungen an die Transparenz und Qualität von Datenströmen noch steigen, da sie die Basis für teilweise für völlig neue (nicht nur entscheidungsunterstützende) Anwendungsfälle bilden sollen.
Doch was nützen immer größere Datenberge, wenn deren Qualität und Herkunft nicht gesichert ist und die Entwicklungs- und Betriebskosten für die Datenhaltung, -integration und Auswertung mit der Datenmenge korrelieren?
"Datenqualität ist nicht alles, aber ohne Qualität der Daten ist alles nicht"
Metadaten und das Management von Metadaten sind wichtige Hilfsmittel zur Sicherstellung einer angemessenen Datenqualität.
Ziel dieses Buches ist zum einen die aktuelle Begriffe und Trends aufzugreifen und das Thema Datenqualitätsmanagement und integriertes Metadatenmanagement wieder in das Bewusstsein von Projektleitern, IT-Managern und Verantwortlichen in der Unternehmensführung, IT-Architekten, Analysten und Entwickler zu rücken.
Language | Status |
---|---|
English
|
Already translated.
Translated by Philipp Strazny
|
French
|
Already translated.
Translated by Zoran Ivanc
|
Italian
|
Already translated.
Translated by Nicole Canino
|
Portuguese
|
Already translated.
Translated by Andrei Tartaroni
|