Benutzerspezifische Werkzeuge

Datenqualitätsmanagement

Datenqualitätsmanagement bezeichnet sämtliche Maßnahmen, die eine vermögenswertorientierte Betrachtung von Daten in einem Unternehmen ermöglichen. Dies lässt sich als Regelkreis auffassen, der aus den Phasen Define, Measure, Analyze, Improve und Control besteht.

Grundlegendes Verständnis

Datenqualität veranschaulicht die Eignung von Daten, die Realität zu beschreiben, das heißt, in wie weit sie ein Modell tatsächlicher Situationen bilden. Insbesondere beschreibt sie, wie verlässlich Daten sind und in wie weit diese als Grundlage für eine Planung des eigenen Handelns Verwendung finden können. Für Entscheidungsträger ist Datenqualität von zentraler Bedeutung, da zum Beispiel auf der Basis von Daten Entscheidungen gefällt, Marktchancen bewertet und Verhandlungen geführt werden. Dabei besteht eine Korrelation zwischen Datenqualität und Entscheidungsqualität, wobei bei der Entscheidungsqualität auch die Interpretation der Daten in Bezug auf die Kausalität zu beachten ist. Nachdem die Grenzen zwischen Informationssystemen, Abteilungen und Unternehmen aufgehoben zu sein scheinen, wird der Integration von Daten und dadurch auch dem Datenqualitätsmanagement eine zunehmende Bedeutung beigemessen. Treiber für ein Datenqualitätsmanagement sind unter anderem IT-Compliance, Prozessintegration entlang der Wertschöpfungskette als auch kundenorientierte Geschäftsmodelle. Dies verlangt eine Beachtung der bestehenden Gesetzgebung, Datenschutz, Rechte an Daten und zugehörige Informationstechnologien. Ursachen für mangelnde Datenqualität sind oft fehlende Verantwortlichkeit, menschliche Fehler, regionale Interpretationsunterschiede oder redundant gespeicherte Kopien von Daten (Dubletten). Ziel des Datenqualitätsmanagements ist die Steigerung des Return on Investment (ROI) bei Maßnahmen zur Verbesserung der Datenqualität. Das bedingt eine Funktion zur Bestimmung von Kosten und Erlösen in direkten Bezug zur Datenqualität und determiniert damit die Anforderungen an Metriken.

Anwendung des Datenqualitätsmanagements

Datenqualitätsmanagement (DQM) bezeichnet alle qualitätsorientierten organisatorischen, methodischen, konzeptionellen und technischen Maßnahmen, um Daten im Sinne eines Vermögenswertes für Unternehmen zu steuern und zu verwalten [Wende 2007, S. 2]. Ein bekannter Ansatz ist das Total Data Quality Management (TDQM) nach Wang [Wang 1998, S. 58 ff.]. Dabei wird über den Lebenszyklus von Daten hinweg eine kontinuierliche Qualitätsdefinition, Qualitätsmessung und Qualitätsanalyse durchgeführt. Datenqualitätsmanagement lässt sich in zwei grundlegende Aufgaben differenzieren: zunächst ist eine unternehmensspezifische Definition von Datenqualität vorzunehmen. Des Weiteren ist, wiederum unternehmensspezifisch, zu prüfen, welche Kriterien und Metriken zur Messung und Verbesserung von Datenqualität anzusetzen sind. Grundsätzlich ist die Messung der Datenqualität von der reinen Bedeutsamkeit (der Semantik) und vom formalen Informationsgehalt (der statistischen Signifikanz) zu unterscheiden. In diesem Kontext findet beispielsweise Six Sigma [Laudon et al. 2009] als Messkonzept Anwendung, welches analog zum TDQM die Vorgehensweise Define, Measure, Analyze, Improve und Control enthält. Dabei spielen Referenzdaten eine bedeutende Rolle, anhand derer die Genauigkeit und Aktualität gemessen wird. [Wang et al. 1998, S. 95 ff.] schlagen eine Definition der Kriterien nach folgenden Kategorien und Dimensionen vor:

  1. Zugang (Systemzugang, Zugangssicherheit);
  2. Darstellung (Interpretierbarkeit, Verständlichkeit, Manipulationsfähigkeit, Integrität, Widerspruchsfreiheit);
  3. Zusammenhang (Relevanz, Zusatznutzen, Aktualität, Vollständigkeit, Informationsumfang);
  4. Eigenwert (Richtigkeit, Objektivität, Glaubwürdigkeit, Reputation).

Gestaltung des Datenqualitätsmanagements

Für die Gestaltung eines Datenqualitätsmanagements sind entsprechend den obigen Ausführungen die Bereiche Strategie, Organisation und Informationssystem zu differenzieren [Redman 1996, Wang et al. 1998, English 1999, Eppler 2006]. Die Datenqualitätsstrategie ist Bestandteil der IT-Strategie und damit aus der Unternehmensstrategie abgeleitet. Für die Gruppe der Stakeholder ist die Bedeutung von Daten für das Unternehmen transparent zu machen, Datenqualitätsinitiativen zu definieren, datenqualitätskritische Bereiche zu identifizieren und ein Datenqualitäts-Review-Prozess zu etablieren, der die Einhaltung mit unternehmensspezifischen und gesetzlichen/regulatorischen Vorgaben darlegt. Im Bereich Organisation sind Rolle und Verantwortlichkeiten für Datenqualitätsobjekte zu definieren (Haftung, Autorität, Aufsicht). Diese lassen sich durch Nutzung des so genannten RACI-Chart (Responsible, Accountable, Consulted and Informed) des IT-Governance-Framework Cobit [ISACA] definieren. Informationsbedürfnisse sind für interne und externe Datenkunden zu bestimmen, sodass eine der vier genannten Rollen zugewiesen werden kann. Ergänzend bedarf es geeigneter Metriken, geeigneter Leistungskenngrößen und definierter Standards für designierte Informationsprozesse, die in den entsprechende Prozeduren Qualitätssicherung, Kontrolle, Risikomanagement und Sicherheit etabliert sind. Auf Informationssystemebene ist ein Abgleich der Datenqualitätsanforderungen mit der Unternehmensarchitektur erforderlich. Dies bedingt eine Definition von Architekturgestaltungsrichtlinien, die Definition von Referenzdaten in einem Business Data Repository, um ein konsistentes Datenverständnis zu schaffen, IT-Support zur Sicherstellung von Integrität und Sicherheit sowie erforderliche Data Scrubbing, Cleansing und Prevention Werkzeuge.

Literatur

English, L. P.: Improving Data Warehouse and Business Information Quality. Wiley&Sons: New York 1999.

Eppler, M. J.: Managing Information Quality. Springer-Verlag: Berlin, Heidelberg 2006.

ISACA: Cobit 4.1. http://www.isaca.org/Knowledge-Center/Research/ResearchDeliverables/Pages/COBIT-4-1.aspx. Abgerufen am 06.10.2016

Laudon, K. C.; Laudon, J. P.; Schoder, Detlef: Wirtschaftsinformatik – Eine Einführung. 2. Auflage. Pearson Studium: München et al. 2009.

Redman, T. C.: Data Quality for the Information Age. Artech House: Boston, London 1996.

Wang, R. Y.: A Product Perspective on Total Data Quality Management. In: Communications of the ACM 41 (1998), S. 58-65.

Wang, R. Y.; Lee, Yan W.; Pipino, Luigi L.; Strong D. M.: Manage Your Information as a Product. In: Sloan Management Review 29 (1998), S. 95-105.

Wende, K.: Data Governance - Defining Accountabilities for Data Quality Management. In: SIWIS 2007, Side Event of ECIS 2007, St. Gallen, Schweiz.

 

Autor


 

Univ.-Prof. Dr. rer. oec. Carsten Felden, TU Bergakademie Freiberg (Sachsen), Fakultät für Wirtschaftswissenschaften insbes. Internationale Ressourcenwirtschaft, Direktor Institut für Wirtschaftsinformatik, Professur für ABWL insb. Informationswirtschaft/Wirtschaftsinformatik, Silbermannstr. 2, 09599 Freiberg (Sachsen)

Autoreninfo


Zuletzt bearbeitet: 22.11.2016 17:37
Letzter Abruf: 18.10.2017 00:17
Artikelaktionen