06.08.2024
Früher wurden Unternehmen hauptsächlich anhand von Verbindlichkeiten, Forderungen, Auftrags- und Lagerbeständen beurteilt. Heute sind Daten zu einem der wichtigsten Vermögenswerte (Data Assets) geworden. Ohne auf ihre Qualität zu achten, riskiert man, den Anschluss in der digitalen Welt zu verlieren.
Viele Entscheidungen werden auf der Basis vorhandener, erworbener oder selbst generierter Daten getroffen. Fragen wie „Kommt unser neuer Sneaker bei der anvisierten Zielgruppe an?“ oder „Wie erreichen wir ein gutes Suchmaschinen-Ranking?“ werden unter Zuhilfenahme von Daten geklärt. Um höchsten Anforderungen zu genügen, beurteilt man die „Gesundheit“ des Datenbestandes nach strengen Regeln und Bedingungen.
„Shit in, shit out“: Fehlerhafte Daten und ihre Folgen
Werden inkorrekte oder unvollständige Daten hergestellt und in internen Prozessen weiterverwendet, produziert man damit zwangsläufig fehlerhafte Ergebnisse bei Auswertungen. Das dahinterstehende, von allen gefürchtete Prinzip schimpft sich: „Shit in, shit out“. Es zeichnet oft verantwortlich für das Scheitern von ETL-Prozessen („extract, transform, load“ – beschreibt das Vereinen unterschiedlich strukturierter Datenbanken in einer Zieldatenbank) und Business Intelligence (Analyse von Geschäftsdaten und Übersetzen in verwertbare Informationen).
Auch beim Einsatz von Künstlicher Intelligenz läuft man Gefahr, wenig brauchbares Material zu erzeugen. Sind die an das KI-System gerichteten Anweisungen (meist in natürlicher Sprache über den „Prompt“) vage, ist die Reaktion der Maschine ebenfalls fragwürdig. So verkommt das vermeintliche „Datengold“ schon mal zur betriebseigenen Bits-und-Bytes-Mülldeponie!
Excellent Data, aber wie?
Stehen Unternehmen also vor tonangebenden Geschäftsentscheidungen, liefern nur korrekte und vertrauenswürdige Daten eine solide Grundlage. Die gewünschte exzellente Qualität zeichnet sich aus durch:
- Genauigkeit
- Vollständigkeit
- Widerspruchsfreiheit
- Harmonisierung
- Aktualität
- Einheitlichkeit
Auch hier gilt: Ein zu 100 % perfekter Zustand von Daten ist per Definition nicht erreichbar. Vielmehr müssen sie den gestellten Anforderungen gerecht werden. Das Zauberwort für diesen Fall heißt: Datenqualitätsmanagement. Als Richtlinien gelten Zweckorientierung, Risikobewertung, Akzeptanz der Stakeholder und Nutzer:innen, Ausgewogenheit und fortschreitende Verbesserung.
„Dirty Data“ vernichtet Werte
Vorbildliches Qualitätsmanagement, beispielsweise in einem mittelständischen Tiroler Maschinenbau-Betrieb, erkennt nicht nur die ungenügende Messtoleranz beim hochpräzisen Nachbearbeiten einer Kurbelwelle, sondern auch „Dirty Data“. Unter diesem Begriff versammeln sich alle digitalen Informationen, die fehlerbehaftet, unvollständig, inkonsistent oder nicht mehr aktuell sind. Ein mangelhafter Datenvorrat führt zu falschen Maßnahmen, verringert die Aussagekraft von Berichten und die Effizienz von Geschäftsprozessen. Ein Großteil „schmutziger Daten“ ist hausgemacht, Mensch und Technik spielen oft zusammen:
- Bei Duplikaten existieren mehrere Kopien eines Datensatzes, was zu Redundanz führt.
- Manchmal fehlen Werte, wenn Felder nicht befüllt werden, oder Maschinen haben unlesbare Daten ausgegeben.
- Sich widersprechende Informationen in einem Datensatz erzeugen Inkonsistenz.
- Analysen und Berichte werden verfälscht, wenn Daten veraltet sind.
- Es ist unklar, wie Daten genau entstehen bzw. wer als Eigentümer gilt.
Maß für Maß
Fest steht: Unzureichende Datenqualität oder die fehlgeschlagene Auswahl der Datenstruktur kann ein Unternehmen teuer zu stehen kommen. Die gute Nachricht: Das Arbeiten mit Daten höchster Qualität ist keine Sache des Zufalls. Eine permanente Erhebung schafft Sicherheit. Der quantitative Faktor wird durch eine automatische Messung mit Hilfe von Software abgedeckt und kann in den IT-Systemen selbst und in Datenbanken erfolgen. Der qualitative Faktor der Messung betrifft regelmäßige Befragungen der User:innen, die für die Neuanlage oder Änderung von Daten in Datenbanken verantwortlich zeichnen.
So wird’s gemacht
Der Weg zum nahezu perfekten „Gesundheitszustand“ von Firmendaten ist plan- und gangbar. Der erste Schritt betrifft die Validierung und Bereinigung (1) und wird mit automatisierten Tools erledigt. Danach werden einheitliche und verbindliche Standards (2) für die manuelle Eingabe, maschinelle Erstellung/Übernahme und Formatierung der Daten vereinbart.
Konsistenz wird sichergestellt, indem Daten aus verschiedenen Quellen integriert (3) werden. Ohne Bewusstseinsbildung bei den Mitarbeitern:innen (4) geht keine Rechnung auf, daher werden sie für das Thema Datenqualität sensibilisiert. Am Ende kommt Technologie (5) in Form von Datenqualitäts-Tools und -Plattformen zum Einsatz.
Parallel zu diesen Aktivitäten empfehlen sich wiederkehrende Datenaudits sowie die Festlegung von Verbesserungszyklen. Das nötige Know-how in Sachen Digitalisierung und Daten-Management vermittelt übrigens dibi.tirol, die Bildungsplattform für digitale Weiterbildung im Beruf. Das inhaltliche Portfolio der fast 1.000 angebotenen Kurse reicht von Data Science über Datenschutz und Datensicherheit bis hin zum Informations-Management.
Austausch und Werte für Tirol forcieren
Der datahub.tirol versteht sich als Tiroler Servicestelle für Unternehmen, die ihre Daten intelligent verwalten und international geregelt teilen wollen. Zur Verfügung gestellt wird dabei die sichere, faire und praktische Infrastruktur für einen souveränen Datenaustausch. Im „regionalen Ökosystem“ des datahub.tirol treffen sich Daten-Anbieter:innen und -nutzer:innen, um Wertschöpfung zu generieren. Angesprochen werden Gemeinden, Regionen und Betriebe wie auch Vereine und Verbände. Der Hub speichert dabei nicht die Daten selbst, sondern lediglich die Beschreibung. Die Souveränität verbleibt dabei zu 100 % bei den Anbieter:innen.
Links