Hohe Datenqualität – die Basis für den Unternehmenserfolg
Inhaltsübersicht:
- Datenqualitäts-Check – einen ersten Überblick verschaffen
- Validität unternehmensweit prüfen
- Prozesse analysieren – Schwachstellen aufdecken
- Fitte Daten auch in der Zukunft
Erste Abhilfe bei mangelnder Datenqualität schaffen diverse – und durchaus hochwertige und nützliche – Datenqualitäts-Lösungen. Damit es aber nicht bei einer immer wiederkehrenden Symptom-Behandlung und immer wiederkehrenden Kosten bleibt, muss der Blick auf die Daten tiefer gehen. Die Ursache des Mangels muss gefunden und beseitigt werden. Anbieter und Kunden von Datenqualitätslösungen sollten sich daher über die jeweiligen Anforderungen, die an die Unternehmensstammdaten gestellt werden, im Klaren sein. Was müssen die Datensätze beinhalten? In welcher Form sollen sie dargestellt werden? Welche Business-Regeln müssen eingehalten werden? Was wird systemseitig gefordert? Und besonders wichtig: Gelten in allen Unternehmensbereichen die gleichen Anforderungen oder benötigen der Vertrieb und der Support unterschiedliche Inhalte und Formate?
Die Anforderungen an die Datenqualität sind in jedem Unternehmensbereich andere. Sie wechseln also mit dem Datennutzer. Man spricht hier vom „different view of data“ im Gegensatz zum „single view of customer“, der nur die Daten und nicht deren Verwendung im Blick hat. Das bedeutet auch, dass man per se nicht von guter oder schlechter Datenqualität sprechen kann – entscheidend ist, ob die Datenqualität den jeweiligen Anforderungen der Nutzer gerecht wird, das heißt ob die Daten „fit for use“ sind. Die Rolle des Datennutzers definiert, welche Daten in welcher Form benötigt werden; er steht im Mittelpunkt.
Für die Implementierung von Datenqualitätslösungen heißt das, dass der erste Schritt eine präzise Untersuchung und Darstellung des Status quo der vorhandenen Daten und der an sie gestellten Anforderungen sein sollte.
Datenqualitäts-Check – einen ersten Überblick verschaffen
Ein Datenqualitäts-Check ermöglicht einen ersten schnellen Überblick über die Stammdaten in einem Unternehmen. Dabei wird ein repräsentativer Ausschnitt der Daten primär unter Datenqualitäts-Dimensionen wie Vollständigkeit, Fehlerfreiheit und Eindeutigkeit untersucht. Besonderen Wert legt man auf die Namens- und die Adresselemente: Sind die Namen vollständig (alle „Pflicht“-Felder sind ausgefüllt)? Sind die Adressen postalisch korrekt (gültige Anschriften)? Liegen Dubletten vor – und wenn ja, sind sie gewollt und dahingehend gekennzeichnet oder handelt es sich um Fehler? Die Ergebnisse werden im Anschluss in Form von Statistiken aufbereitet und mit aussagekräftigen Beispielen ergänzt. Das Ergebnis des Datenqualitäts-Checks hilft Unternehmen dann, einen ersten Eindruck über den tatsächlichen Zustand ihrer Daten aus der „Single view of customer“-Perspektive zu erhalten. Der festgestellte Verschmutzungsgrad ist ein Indikator für die Notwendigkeit einer Datenbereinigung – und legt das weitere Vorgehen fest.
Validität unternehmensweit prüfen
Der erste Überblick genügt meist nicht, er ist aber hilfreich, um zu erkennen, wo der größte Handlungsbedarf besteht. Eine fundierte Analyse der Gesamtheit der Stammdaten – von den Datensätzen bis hin zu spezifischen Datenfeldern wie beispielsweise Telefonnummern, Kundenumsatz oder weiterer anhängender Daten – sollte der nächste Schritt sein. Auch die Business-Regeln darf man nicht aus den Augen verlieren – sind sie noch aktuell und relevant beziehungsweise werden sie korrekt umgesetzt? Bevor man in medias res geht, sollten jedoch Analyse-Anbieter, Unternehmensleitung und die Leiter der Fachabteilungen in einem initialen Workshop den Rahmen und die Ziele der Analyse festlegen. Mögliche Diskussionsthemen sind die Datenstruktur, deren Sinngehalt, Konsistenz, Eindeutigkeit, Klarheit und Korrektheit sowie die einflussnehmenden Businessregeln.
Sind die Kriterien und Ziele der Untersuchung festgelegt, kann die technische Analyse erfolgen. Möglichst unternehmensweit wird dann die Belastbarkeit des Datenmaterials überprüft. Daran sollte sich ein weiterer Workshop anschließen, in dem die Analyse-Ergebnisse und erste Vorschläge zur Optimierung der Datenqualität vorgestellt werden. Außerdem können nun noch präzisere und applikationsspezifischere Anforderungen an die Daten definiert werden.
Prozesse analysieren – Schwachstellen aufdecken
Für eine umfassende und zielführende Analyse, gerade bei einer sehr heterogenen IT-Landschaft, kann es sinnvoll sein, noch eine Stufe tiefer in die Datensätze und Systeme einzudringen. Ziel einer solchen Analyse ist es, die Entstehungsbedingungen und -prozesse von Daten aufzuzeigen, um eventuelle Schwachstellen, die zu einer Verschlechterung der Datenqualität führen, erkennen zu können. Das ist besonders hinsichtlich langfristiger Maßnahmen zur Optimierung der Datenqualität relevant. Hier rücken dann auch die einzelnen Datennutzer und deren Bedürfnisse, „different views of data“ in den Mittelpunkt. Daher werden Fragestellungen zur Datenqualität wie Verständlichkeit, Übersichtlichkeit und Zugänglichkeit untersucht, aber auch die Einschätzung der Fachabteilungen und einzelner Datennutzer über die Glaubwürdigkeit und Belastbarkeit ihrer Daten dokumentiert. Anbieter für Datenqualitätslösungen sollten hier über Consultants eng mit ihren Kunden zusammenarbeiten, um gemeinsam die involvierten Systeme und Prozesse besser erkennen und beschreiben zu können. Dieser Ist-Zustand kann dann gegen die vorher ausgearbeiteten idealen Anforderungen an die Datenqualität abgeglichen werden.
Außerdem sollte man den Nutzer bei der Arbeit – Dateneingabe, Datenpflege und Datennutzung – über die Schulter schauen. Im konkreten Anwendungsfall lassen sich Optimierungspotenziale am effizientesten identifizieren. Hier lässt sich auch feststellen, ob die Daten inhaltlich und formal so präsentiert werden, dass die täglichen Aufgaben effektiv durchgeführt werden können. Gerade bei der Analyse und Bewertung der Entstehungs- und Arbeitsprozesse von und mit Daten, ist man als Lösungs-Anbieter und als Kunde auf den Sachverstand und die kommunikativen Fähigkeiten von Consultants angewiesen. Analyse-Software kann da nur ein Hilfsmittel sein.
Fitte Daten auch in der Zukunft
Marketing-Abteilungen beispielsweise legen Wert auf korrekte Anschriften für Mailing-Aktionen, während Support-Mitarbeiter vor allem auf die Aktualität und Vollständigkeit der Daten in den CRM-Systemen angewiesen sind. Wieder andere Abteilungen stellen weitere und andere Anforderungen an ihre Datenhaltungssysteme. Ob die Qualität der Daten gut oder schlecht ist, lässt sich nur mit Hilfe der Datennutzer und nur für ihren speziellen Anwendungsfall feststellen. Nach einer umfassenden Analyse können nun nicht nur Aussagen zum allgemeinen Zustand der Datenqualität gemacht werden – auch die individuellen Anforderungen der Fachabteilungen und die prozessualen Schwachstellen sind bekannt.
Jetzt kann man bewerten, ob Daten „fit for use“ sind. Und erst auf Basis einer solchen Analyse lassen sich wirklich profunde und somit langfristig wirksame Strategien entwickeln, die die Datenqualität dauerhaft und unternehmensweit sichern. Eine weitere Symptom-Behandlung mit Ad-hoc-Lösungen ist dann nicht mehr nötig. Dies spart Kosten für aufwändige Nachbearbeitungen von Daten und gibt finanzielle Planungssicherheit. Außerdem lassen sich auf dieser Grundlage Implementierungskosten für Datenqualitätslösungen senken, da Umfang und Aufwand der Implementierung besser abgeschätzt werden können. So wird auch der ROI schneller erreicht. Als Nebeneffekt kann man zudem belastbare Aussagen über die Effektivität von Arbeitsprozessen treffen – und hier mögliche Einsparpotenziale aufdecken.
Quelle: https://www.wissensmanagement.net/zeitschrift/archiv/fachbeitraege/ausgabe/artikel/hohe_datenqualitaet_die_basis_fuer_den_unternehmenserfolg.html