Datenqualitätsmanagement / Data Quality Management

0

Definition: Was ist Datenqualität?

Datenqualität beschreibt die Korrektheit, die Relevanz und die Verlässlichkeit von Daten, abhängig vom Zweck, die die Daten in einem bestimmten Zusammenhang erfüllen sollen.

Definition: Was ist Datenqualitätsmanagement?

Datenqualitätsmanagement bezeichnet sämtliche Maßnahmen, die eine vermögenswertorientierte Betrachtung, Steuerung und Qualitätssicherung von Daten in einem Unternehmen ermöglichen. Datenqualitätsmanagement ist eine Teildisziplin einer ganzheitlichen Data Governance Strategie.

Warum ist ein Datenqualitätsmanagement ein kritischer Erfolgsfaktor für Organisationen?

Treiber für Datenqualitätsmanagement sind Themen wie z.B. 360 Grad-Sicht auf den Kunden, Digitalisierung und zunehmend der Einsatz von Artificial Intelligence (AI). Schlechte Datenqualität wirkt sich vielfältig auf die Qualität von Geschäftsprozessen aus. Studien kommen zu dem Ergebnis, das Datenqualitätsprobleme 5 – 10mal höhere Prozesskosten verursachen. Bedeutet im Umkehrschluss, Unternehmen mit einem gut organisierten Datenmanagement und damit einer hohen Datenqualität können Daten effizienter und intelligenter nutzen und damit ihre Wettbewerbsfähigkeit steigern.

Unsere Seminarempfehlung

Data Quality erfolgreich steuern

Datenqualitätsmanagement ist eine der wichtigsten Grundlagen für unternehmerische Entscheidungen. Mit der zunehmenden Digitalisierung gilt dies umso mehr. Die Funktionsfähigkeit von „Data Driven Processes“ sowie die Aussagekraft von Kennzahlen bis hin zu Predictive Analytics, aber auch die Compliance-Konformität (Bsp. DSGVO) ist maßgeblich von der Datenqualität abhängig. In diesem Seminar vermitteln wir Ihnen Strategien, Maßnahmen und Methoden für ein nachhaltiges Datenqualitätsmanagement für eine zukunftssichernde datenbasierte Entscheidungsfindung.


Seminar: Data Quality erfolgreich steuern

Wie kann man Datenqualität messen?

Das Zitat von Peter F. Drucker, „was ich nicht messen kann, kann ich nicht steuern“, gilt auch für das Thema Datenqualität. Um sinnvolle Verbesserungsmaßnahmen umsetzen zu können, muss das Datenqualitätsniveau quantifiziert werden und Datenqualitätsschwächen hinsichtlich ihrer Ursache und Wirkung bewertet werden. Hierzu bedient man sich den sogenannten Datenqualitätskriterien oder auch Dimensionen wie z.B. Vollständigkeit, Eindeutigkeit, Korrektheit, usw. (s.u.) Aus meiner Erfahrung haben sich insgesamt 11 Dimensionen als gut anwendbar herausgestellt. Für einen ersten und einfach durchzuführenden Schritt zur Datenqualitätsmessung empfehle ich die „Friday Afternoon Measurement“ Methode von Thomas C. Redman anzuwenden.

Datenqualitätskriterien (Data Quality Dimensions)

1. Vollständigkeit (Completeness):

  • Ein Datensatz muss alle notwendigen Attribute enthalten.
  • Attribute müssen alle notwendigen Daten enthalten.

2. Eindeutigkeit (Uniqueness):

  • Jeder Datensatz muss eindeutig interpretierbar sein. Gegensätzliches Erscheinungsbild unter dem Begriff „Dublette“ bekannt.)

3. Korrektheit (Correctness):

  • Die Daten müssen mit der Realität übereinstimmen.

4. Aktualität (Timeliness):

  • Alle Datensätze müssen jeweils dem aktuellen Zustand der abgebildeten Realität entsprechen.

5. Genauigkeit (Accuracy):

  • Die Daten müssen in der jeweils geforderten Exaktheit vorliegen (Beispiel: Nachkommastellen).

6. Konsistenz (Consistency):

  • Ein Datensatz darf in sich und zu anderen Datensätzen keine Widersprüche aufweisen.

7. Redundanzfreiheit (Nonredundant):

  • Innerhalb der Datensätze dürfen keine Dubletten vorkommen.

8. Relevanz (Relevancy):

  • Der Informationsgehalt von Datensätzen muss den jeweiligen Informationsbedarf erfüllen.

9. Einheitlichkeit (Uniformity):

  • Die Informationen eines Datensatzes müssen einheitlich strukturiert sein.

10. Zuverlässigkeit (Reliability):

  • Die Entstehung der Daten muss nachvollziehbar sein.

11. Verständlichkeit (Understandability):

  • Die Datensätze müssen in ihrer Begrifflichkeit und Struktur mit den Vorstellungen der Informationsempfänger (z.B. Fachbereiche) übereinstimmen.

Weitere Detaillierung um Datenqualität zu messen.

Was sind die Herausforderungen von Datenqualitätsmanagement?

Ein effektives Datenqualitätsmanagement aufzubauen ist keine Einmal-Aktion, sondern ein nicht endender Dauerlauf. Die Datenmenge wie auch die Vielfältigkeit von Daten nimmt rasant zu. Einerseits steht man vor der Herausforderung unterschiedlichste Datenstrukturen aus unterschiedlichsten Quellen mit unterschiedlichsten Qualitätsniveaus in einen dem Zweck entsprechenden sinnvollen Zusammenhang zu bringen. Andererseits ist es erforderlich immer größere Datenmengen in immer kürzerer Zeit mit hoher Qualität zu verarbeiten und für unterschiedlichste Stakeholder und Bedürfnisse zur Verfügung zu stellen. Zusätzlich wird ein breites Wissen zum Datenmanagement von Data Governance und Data Quality Managern erwartet.

Wie implementiere ich ein Datenqualitätsmanagement in meine Organisation?

Am besten startet man mit einem dedizierten Projekt, welches sich auf die Verbesserung der Datenqualität dort konzentriert, wo diese Wertmäßig die beste Wirkung erzeugt.

Die Laufzeit des Projektes sollte nicht 3 – 6 Monate überschreiten. Wichtig ist es einen Sponsor aus dem Vorstand/Geschäftsleitung zu haben sowie eine gut ausgestatte Projektorganisation bereit zu stellen inkl. einem Steering Committee. Von der Projektmethode her empfiehlt es sich auf ein agiles Verfahren zu setzten mit 2 – 3 Wochensprints. Zeigt sich, dass man den ersten DQ-Verbesserungs-Prozess gut im Griff hat, kann man sich mit der weiteren Strategie und Taktik befassen und das Modell weiter in der Organisation vorantreiben und die nächsten Verbesserungsmaßnahmen einleiten. Aber nicht vergessen, dies sollte alles im Einklang mit der Gesamt-Daten-Strategie des Unternehmens stehen.

Wo ist Datenqualitätsmanagement organisatorisch am besten angesiedelt?

Erfahrungsgemäß starten die meisten Organisationen mit einem Data Quality Management im Bereich Business Intelligence / Data Warehousing. Da hier viele Daten bereits zusammengeführt werden, ist das Bewusstsein für Datenqualitätsschwächen und deren Auswirkung auf die Aussagekraft der Kennzahlen am stärksten ausgeprägt. Für den Start ist dies soweit auch akzeptabel, aber langfristig zu kurz gegriffen. Der Wettbewerbsvorteil liegt in der Umsetzung einer ganzheitlichen organisationsübergreifenden Data Management Strategie, die durch die Geschäftsleitung/Vorstand vorangetrieben wird. Das Data Quality Management ist ein wichtiges Element dieser Strategie.

Like
Like Love Haha Wow Sad Angry
Teilen Sie den Beitrag auf:

Über den Autor

Marco Geuer

ist Director Data Governance & Quality, Business Intelligence Competence Center (BICC), Telekommunikationsbranche. Marco Geuer ist außerdem Fachautor in verschiedenen Print- und Onlinemedien, Blogautor und Redner auf Fachkonferenzen.

Zur Themenübersicht Controlling

Comments are closed.