Master Data Management

Veröffentlicht am

Die Bedeutung einer ausreichenden Stammdatenqualität kann nicht hoch genug eingeschätzt werden. Jährlich entstehen Unternehmen in Deutschland wegen Mängeln in diesem Bereich erhebliche Zusatzkosten – die Symptome dafür sind vielfältig:

  • Fehlerhafte Beschaffung bzw. Produktion
  • Verzögerte Auslieferung zum Kunden
  • Qualitätsmängel im Produkt
  • Unzufriedene Kunden
  • Verminderte Effizienz im Backoffice
  • Ungünstige Teile-Disposition
  • Fehlerhafte oder nicht aktuelle Preise
  • Inkorrekte Zollanmeldung
  • Fehlerhafte Daten zur Statistischen Warenmeldung, bis zum Strafgeld
  • etc.

Es liegt in der Natur der Sache, nämlich der integrativen Wirkung von Stammdaten, dass derartige Fehlerbilder eher schwer dem Verursacher zugeordnet werden können. Dadurch wird die Bewertung von Stammdatenproblemen mittels der Zuordnung direkter Kosten schwierig bis unmöglich. Und nicht zuordnungsfähige Kosten können keine Entscheidungsgrundlage darstellen. Hier ist der Prozesskostenansatz der bessere Weg um die Notwendigkeit, in Stammdatenqualität zu investieren, zu vermitteln.

Prozesskostensenkung durch Reduzierung der Komplexität

Wie bekommt man ein Gefühl für den Umfang an Problemen, die durch fehlerhafte Stammdaten entstehen? Generell gilt: Aufwand und Nutzen von Stammdatenpflege sind grundsätzlich exponentieller Natur. Ein und derselbe Aufwand führt zu unterschiedlichem Nutzen, abhängig von der Ausgangs-Stammdatenqualität. Je besser die Stammdatenqualität bereits ist, umso mehr Aufwand ist zu treiben, um die Qualität deutlich zu verbessern.

Jede Tätigkeit beinhaltet immer eine gewisse Fehlerwahrscheinlichkeit. Letztere ist abhängig von der Komplexität der Tätigkeit, der Wiederholhäufigkeit (Routine der Ausführung) und dem äusseren Stress, unter dem eine Tätigkeit durchgeführt werden muss.

Ein paar einfache Beispiele für diese Einflussfaktoren:

Einflussfaktoren Beispiele

Die Stammdatenqualität hat gleichzeitig Einfluss auf die Komplexität einer Aufgabe und den Stresslevel, unter dem sie ausgeführt wird, hat. Eine bessere Stammdatenqualität senkt also die Fehlerwahrscheinlichkeit auf gleich zwei Einflussebenen und senkt damit Prozesskosten durch Reduzierung der Fehlerwahrscheinlichkeit.

Der Tool-Glaube

Sie denken: „Da muss es doch ein Tool geben, wir sind doch nicht die einzigen mit Stammdatenproblemen…“. Diese an sich attraktive Vorstellung unserer Kunden basiert auf zwei Fehlannahmen, nämlich

  • Andere haben ihre Stammdatenprobleme im Griff und zwar auf genau die Art, die wir auch benötigen.
  • Meine Mitarbeiter haben die Stammdaten nicht im Griff, sonst hätten wir ja die Probleme nicht.

Die schlechte Nachricht zuerst: Es gibt weder das eine Patentrezept zur Erlangung fehlerfreier Stammdaten, noch gibt es das eine Tool, dass auf Knopfdruck aufräumt und die dadurch gewonnene Stammdatenqualität auch weiterhin hält. Der Grund hierfür ist, dass Stammdaten, ebenso wie die durch sie unterstützten Prozesse in Ihrem ERP-System, in hohem Masse einzigartig und speziell auf Ihr Unternehmen zugeschnitten sind und sein müssen. Planungsgrundlagen zur Verbesserung und Erhaltung der Stammdatenqualität sind daher immer in hohem Masse individuell. Ein kommerziell erhältliches Tool müsste einer ausreichenden Zahl dieser hochindividuellen Planungsgrundlagen genügen und wäre damit so komplex, dass es bestenfalls schwierig anzuwenden wäre.

Die gute Nachricht: Sie sind grundsätzlich sehr wohl in der Lage, die Qualität von Stammdaten zu verbessern und dann auch auf höherem Niveau zu halten. Und zwar von besagten Mitarbeitern, mit einer durchgängigen Planungsgrundlage.

Ihr Weg zum Ziel: Planungsgrundlagen der Stammdatenqualität

Sie müssen Rahmenbedingungen definieren:

  • Geschäftsvorfälle und Rahmenbedingungen müssen mit den jeweiligen Verantwortlichen zusammen definiert werden
  • Definition der Datenspezifikationen
  • Erarbeitung von Daten-Richtlinien und Standards für Inhalt und Terminologie (Geschäftsbedingungen, regelbasierte Prüfungen, Namensgebung und Attribute von Datenelementen, etc.)
  • Definition der Datenelementstruktur
  • Klärung von Daten- bzw. Informationsverantwortung

Die Datenqualität muss prüfbar werden:

  • Erfüllung der Definitionen (Struktur, Vollständigkeit, Genauigkeit)
  • Gültigkeit
  • Eindeutigkeit (keine Dubletten)
  • Verfügbarkeit und Zugriff für Geschäftsvorfälle
  • Dokumentation
  • Verwendete Werkzeuge und Applikationen
  • Regelmäßiges Monitoring

Zuständigkeiten müssen definiert werden:

  • Welche Stammdaten steuern welche Prozesse?
  • Welcher Fachbereich liefert welche Stammdaten?
  • Welcher Fachbereich benutzt welche Stammdaten?

Bereinigungsprozesse müssen geplant werden:

  • Inhalt, Umfang und Art der Ausführung (manuell, automatisch, Werkzeug)
  • Budgetierung
  • Werkzeuge auswählen
    • z.B. R/3: dediziertes ABAP, LSMW, eCATT, etc.
    • Autorisierung
  • Laufzeitplanung
  • Konformität mit laufenden Geschäftsprozessen
  • Verantwortlichkeiten
  • Service Level Agreement
  • Vereinfachtes Meldewesen („Ticket tool“)

Unsere Unterstützung: Das Vorgehensmodell der entero AG

  • Bereinigung der Stammdaten
    • Prozessanalyse und Identifikation der zu bereinigenden Stammdatenelemente
    • Analyse 1: Duplikate (z.B.: 1 Meßgerät, mehrere Materialnummern)
    • Analyse 2: Fehlende Feldeinträge (z.B.: Hersteller-Serialnummer) oder falsche Feldeinträge (z.B.: falsche Gewichte)
    • Analyse 3: Fehlende Datensätze (z.B.: Einkaufsdaten nicht angelegt, Materialstamm nicht vorhanden)
    • Kosten-/Nutzenanalyse (wenn relevant)
    • Bestimmung der Informationsquellen (System, Excel, Personen, …)
    • Datenkonsolidierung
    • Dateneinspielung bzw. -korrektur
  • Erhaltung der Stammdatenqualität
    • Konzeption und Einführung eines Stammdatenpflegeprozesses (Ausprägung und Beteiligung, Berücksichtigung der Interessenlage)
    • Entscheidung Stammdatenpflegemodell: Dezentral oder zentralisiert?