Viele Unternehmen haben in der Vergangenheit ihre Datenqualität aus unterschiedlichen Gründen vernachlässigt. Dass ihre ERP-Systeme dadurch nur suboptimal performten, war ihnen nicht bewusst, oder sie nahmen es billigend in Kauf.
Mit der Digitalisierung der Prozesse und dem rasanten Aufstieg von Künstlicher Intelligenz wird dies noch zu einem größeren Risiko. Denn es ist wissenschaftlich hinreichend belegt: Eine schlechte Datenqualität beeinflusst Effizienz und Ergebnis, auch bei KI-Systemen wie selbstlernenden Maschinen. Für viele Firmen wird es Zeit, aktiv zu werden.
Der ERP-Hersteller ProAlpha rät, Daten einem siebenstufigen Leistungstest zu unterziehen - und zwar eigene Bestände genauso wie Informationen aus anderen Quellen, etwa von Wirtschaftsauskunfteien und anderen Drittanbietern. Die sieben entscheidenden Parameter werden im Folgenden detailliert behandelt.
1. Vollständig
Fehlen Informationen, ist das mehr als nur ärgerlich. Je digitalisierter Abläufe werden, umso wichtiger ist es, dass sämtliche benötigen Daten vorliegen. Sind beispielsweise Angaben zu den Bauteilen für ein Produkt unvollständig, stockt möglicherweise der Produktionsprozess oder das Endprodukt entspricht nicht den Vorgaben.
Um die Performance der Geschäftsprozesse sicherzustellen, empfehlen sich die Definition von Pflichtfeldern sowie automatisierte Prüfungen an ausgewählten Prozesspunkten. Unternehmen sollten dennoch nicht in „Datensammelwut“ verfallen. Denn bei personenbezogenen Daten gilt seit Inkrafttreten der Datenschutzgrundverordnung (DSGVO) das Gebot der Sparsamkeit: Es dürfen nur so viele Informationen gespeichert werden, wie tatsächlich nötig sind. Nicht mehr erforderliche Daten sind nachhaltig zu löschen.
2. Aktuell
Nicht-synchronisierte Adress- und Kontaktdaten sind ein Paradebeispiel für veraltete Informationen. Gerade weil Vertriebsmitarbeiter nur sporadisch in der Zentrale vorbeischauen, war in der Vergangenheit die Kundendatenbank nie auf dem aktuellen Stand.
Mobile CRM-Lösungen sorgen hier für Abhilfe. Sie halten zudem auch so produktionskritische Informationen wie Lagerdaten auf Stand. Dennoch muss nicht jeder Status in Echtzeit vorliegen. Unternehmen sollten vielmehr ihre Prozesse einem Check unterziehen, wo eine schnellere Datenbereitstellung für mehr Produktivität sorgt, und genau dort ansetzen.
3. Konsistent
Datensätze in verschiedenen Systemen dürfen sich nicht widersprechen. In der Praxis führen eine doppelte Datenhaltung in mehreren Datensilos und manuelle Übertragung im besten Fall „nur“ zu Mehraufwand für die Dateneingabe.
Im schlimmsten Fall entstehen Fehler, etwa beim Übertrag der Auftragsdaten in eine Software für Qualitätssicherung. Daraus resultierende Inkonsistenzen sind heute, durch moderne Integrationstechniken, relativ einfach in den Griff zu bekommen.
4. Konform
Daten müssen den Anforderungen der Systeme und der Prozesse entsprechen, zum Beispiel im passenden, möglichst standardisierten Format vorliegen. Datums- und Währungsformate sind hier Klassiker.
Bei Zeitstempeln ist ferner darauf zu achten, dass zusätzlich zu Stunden und Minuten auch die jeweilige Zeitzone miterfasst wird. Schließlich liegen zwischen 8:00 Uhr in Shanghai und 8:00 Uhr in São Paulo zwölf Stunden Zeitunterschied.
5. Genau
Daten müssen genau sein. Genauer gesagt: Sie müssen ausreichend genau sein. Denn nicht jeder Geschäftsprozess benötigt Hochpräzisionsdaten bis auf die x-te Kommastelle.
Unternehmen sollten sich auch hier zuerst fragen: Wie exakt müssen Messwerte und andere Daten sein? Die benötigte Genauigkeit sollte dann auch systemseitig durch entsprechende Regeln und Datenprüfungen nachgehalten werden.
6. Einzigartig
Dubletten blähen nicht nur den Datenbestand unnötig auf. Sie sorgen auch für unnötige Rückfragen. Bleiben sie unentdeckt, kommt es schnell zu Fehlinterpretationen, etwa wenn ein Lieferant mehrere Lieferantennummern hat und dadurch Kennzahlen wie das Vertragsvolumen für Rabattverhandlungen nicht aggregiert werden.
Redundante Daten aus einem Bestand herauszufiltern, geht bereits mit Bordmitteln eines Tabellenkalkulationsprogramms. Jedoch schleichen sich so Dubletten immer wieder ein und die Arbeit beginnt von vorne. Ein automatisierter Data Quality Manager bietet einen nachhaltigeren Weg zu sauberen Daten.
7. Richtig
Dieses Kriterium verweist neben der Aktualität auf einen weiteren, wesentlichen Aspekt: nämlich die Richtigkeit, die Verlässlichkeit der Daten. Die Diskussion um Fake News unterstreicht dies einmal mehr: Eine „topaktuelle“ Information über ökonomische Schwierigkeiten eines Zulieferers muss nicht zwingend korrekt sein. Die Quellen, aus denen Unternehmen geschäftsrelevante Informationen beziehen, müssen also nachvollziehbar und glaubwürdig sein.
Misstrauen versus Überschätzen
Das Verhältnis der Unternehmen zu ihren Daten ist oft zwiespältig: An einigen Stellen, etwa im Vertriebs- oder Finanzbereich, wird ihrer Qualität teilweise offen misstraut, an anderen Stellen, beispielsweise in der Produktion, wird die Qualität oft überschätzt. Ein nachhaltiges Qualitätsmanagement für Daten hilft in dreierlei Hinsicht: Es bewahrt vor kostspieligen Fehlern, erhöht das Vertrauen in die eigenen Daten und ermöglicht bessere Entscheidungen.
Vor allem aber helfen richtig gemanagte Daten, Prozesse zu digitalisieren. Um dieses Plus an datengetriebener Effizienz zu erzielen, können sich Unternehmen bei Spitzenmannschaften im Sport einiges abschauen: Es braucht eine profunde und ehrliche Analyse, eine klare Strategie und den individuellen Einsatz für kontinuierliche Verbesserung – auf allen Ebenen des Teams.