📊 Warum gute Daten selten ein Silvesterprojekt sind
Datenprojekte starten in vielen Unternehmen zwischen Weihnachten und Silvester: „Heuer bauen wir endlich ein Dashboard.“ 🎆 Doch gute Datenqualität, verlässliche Kennzahlen und tragfähige Entscheidungen entstehen selten in einer Silvesterwoche. Sie sind Ergebnis von klaren Fragen, stabilen Prozessen und technischer wie organisatorischer Disziplin.
Im Folgenden geht es darum, warum kurzfristige Dashboard-Aktionen scheitern, welche Schritte für belastbare Kennzahlen wirklich nötig sind – und wie Sie in einem technisch geprägten Umfeld mit überschaubarem Aufwand starten können.
Typischer Use-Case: „Wir brauchen bis Jahresende endlich Kennzahlen“
Ausgangslage in vielen Betrieben:
- Die Geschäftsführung möchte auf einen Blick sehen, wie Produktion, Projekte oder Service „laufen“.
- Es gibt viele Datenquellen: Maschinensteuerungen, Zeitauswertung, Wartungslisten, Excel-Dateien.
- Zwischen den Systemen existieren MedienbrĂĽche: handschriftliche Notizen, E-Mail-Auswertungen, kopierte Excel-Tabellen.
- Der Auftrag an Technik oder Digitalverantwortliche lautet: „Mach uns schnell ein Dashboard.“
Was dann passiert:
- Es werden spontan Kennzahlen definiert („Ausschussquote“, „Durchlaufzeit“, „Auslastung“), oft ohne gemeinsame, schriftlich fixierte Definition.
- Die Daten werden „zusammengeschaufelt“ (Exports, Copy & Paste, manuelle Berechnungen).
- Das Ergebnis sieht gut aus – ist aber selten stabil, wiederholbar oder revisionssicher.
Die Folge: Im Jänner kommen die ersten Detailfragen und Widersprüche:
- „Warum zeigt das Dashboard andere Zahlen als das ERP-System?“
- „Wieso ändert sich der Wert rückwirkend?“
- „Was genau steckt in dieser Kennzahl drinnen?“
Genau hier zeigt sich: Gute Daten sind kein Silvesterprojekt, sondern ein Prozess.
Was gute Kennzahlen von „Zahlen-Make-up“ unterscheidet
Gute Kennzahlen haben drei Eigenschaften:
-
Eindeutige Definition
Jeder im Unternehmen versteht das Gleiche darunter. Beispiel: Ist bei der Ausschussquote die eingelernte Anlaufware dabei oder nicht? -
Reproduzierbare Berechnung
Werden dieselben Rohdaten mit derselben Berechnungslogik erneut verarbeitet, entsteht derselbe Wert – unabhängig davon, wer die Auswertung macht. -
Nachvollziehbarkeit
Es ist dokumentiert, woher die Daten stammen, welche Filter gesetzt sind, und welche Annahmen gelten.
Kurzfristige Silvester-Dashboards vernachlässigen meist alle drei Punkte: Es zählt die Optik, nicht die methodische Qualität. Technisch Verantwortliche sitzen dann im Jänner zwischen den Stühlen: „Das Dashboard zeigt etwas, aber niemand traut den Zahlen.“
Kernschritt 1: Vom BauchgefĂĽhl zur klaren Frage
Datenqualität beginnt nicht bei der Datenbank, sondern bei der Frage. Statt „Wir brauchen Kennzahlen“:
- „Welche Engpässe wollen wir im nächsten Jahr konkret adressieren?“
- „Welche Entscheidungen sollen wir ab dem nächsten Quartal datenbasiert treffen?“
- „Wo gibt es heute Konflikte zwischen gefühlter und gemessener Leistung?“
Praxisbeispiele aus dem technischen Alltag:
- Produktion: „Wir wollen Schichtübergaben faktenbasiert führen. Welche Kennzahlen zeigen, ob die Linie stabil läuft?“
- Instandhaltung: „Wir wollen kritische Anlagen besser planen. Welche Metriken brauchen wir, um Ausfälle früh zu erkennen?“
- Projektgeschäft: „Wir wollen Nachkalkulationen objektiver machen. Welche Datenpunkte fehlen uns heute in der Zeiterfassung?“
Erst wenn die Fragestellung klar ist, lohnt es sich, Zeit in Metriken und DatenflĂĽsse zu investieren.
Kernschritt 2: Metriken sauber definieren – mit Minimalstandard
Für die technische Praxis empfiehlt sich je Kennzahl ein „Kennblatt“, ähnlich wie ein Datenblatt für ein Bauteil. Das wirkt bürokratisch, spart aber unzählige Diskussionen.
Ein Minimalstandard könnte folgende Punkte enthalten:
| Element | Beispiel fĂĽr eine Ausschusskennzahl |
|————————|—————————————————————————-|
| Name | Ausschussanteil Fertigungslinie A |
| Ziel | Erkennen von Prozessinstabilitäten pro Schicht |
| Definition | Ausschussteile / (Ausschussteile + Gutteile) in Prozent |
| Datenquelle | Zählwerke SPS, manuelle Nachbuchungen im Shopfloor-System |
| Filter | Nur Serienproduktion, keine Anlaufteile, keine Musterteile |
| Aggregation | Schichtweise, Tages- und Wochenverdichtung als Mittelwert |
| Verantwortlichkeit | Fachlich: Fertigungsleitung, technisch: Digitalverantwortlicher |
| Aktualisierungsintervall | Stündliche Aktualisierung mit nachlaufender Korrekturmöglichkeit (max. 24 h) |
| GĂĽltig ab | 01.02.2026 (alte Berechnungslogik dokumentiert und abgelegt) |
Solche Definitionen müssen nicht perfekt starten, aber sie müssen existieren – und versioniert sein. Nur dann ist nachvollziehbar, warum sich eine Kennzahl zum Stichtag geändert hat.
Kernschritt 3: Datenpfade und Schnittstellen stabilisieren
Sobald klar ist, welche Kennzahlen gebraucht werden, stellt sich häufig heraus:
- Manche Werte werden bisher gar nicht oder nur sporadisch erfasst.
- Informationen stecken in E-Mails, Papierformularen oder in Köpfen erfahrener Mitarbeiter.
- Unterschiedliche Systeme (Maschinensteuerung, Betriebsdatenerfassung, Zeiterfassung, ERP) arbeiten mit unterschiedlichen Zeitstempeln oder Begriffsdefinitionen.
Hier helfen einfache, technische Schritte – oft schon mit Python und schlanker Datenverarbeitung:
- Automatisierte Exporte aus Maschinensteuerungen und Systemen (z.B. CSV- oder XML-Exporte) statt händischem Kopieren.
- Zentrale, technische Datendrehscheibe (z.B. eine relationale Datenbank wie PostgreSQL oder ein ĂĽbersichtliches Datenverzeichnis mit klarer Ordnerstruktur).
- Standardisierte Vorverarbeitungsskripte (Python), die:
- Zeitstempel in ein einheitliches Format bringen.
- offensichtliche Plausibilitätsprüfungen durchführen (z.B. negative Mengen, doppelte Buchungen).
- Daten aus verschiedenen Quellen zusammenfĂĽhren (Join auf Auftragsnummer, Maschinen-ID, Zeitslot).
Der entscheidende Punkt: Diese Schritte müssen wiederholbar sein. Ein einmaliger „Zwischen-den-Feiertagen-Export“ hilft kurzfristig, aber nicht für ein Jahr Steuerung.
Kernschritt 4: Visualisierung zuletzt – aber zielgerichtet
Visualisierung wirkt verführerisch, weil sie schnell sichtbare Ergebnisse bringt. Für eine nachhaltige Steuerung ist sie aber der letzte Schritt – nicht der erste.
Wichtige Fragen vor dem ersten Dashboard:
- Wer sieht die Kennzahl? Schichtführer, Technikleitung, Geschäftsführung?
- Welche Entscheidung wird durch diese Visualisierung konkret beeinflusst?
- Welche Reaktionsregel wird vereinbart? Beispiel: „Wenn die Ausschussquote in zwei Schichten über x Prozent liegt, wird die Linie gestoppt und es findet eine strukturierte Ursachenanalyse statt.“
Praxisnaher Ansatz:
- FĂĽr operative Rollen (SchichtfĂĽhrer, Instandhaltung) einfache, wenige Anzeigeelemente: Ampellogik, Verlauf ĂĽber letzte Schichten, klare Grenzwerte.
- FĂĽr FĂĽhrungsebene verdichtete Sicht: Trends ĂĽber Wochen oder Monate, Benchmarking zwischen Linien oder Standorten, korrigiert um bekannte Effekte (z.B. Produktmix).
Wichtig: Jede Visualisierung sollte auf ein dokumentiertes Kennblatt zurückführbar sein. Sonst entstehen Parallelwelten („Dashboard-Zahlen“ vs. „ERP-Zahlen“).
Vorgehen in Etappen statt „Silvester-Sprint“
Anstelle eines einmaligen Dashboards zwischen den Jahren hat sich in vielen technischen Betrieben ein dreistufiges Vorgehen bewährt:
Etappe 1: Orientierung und Auswahl
- Bestehende Berichte und Auswertungen sammeln.
- Gemeinsam mit Fachbereichen drei bis fünf Kernkennzahlen auswählen, die tatsächlich für Entscheidungen genutzt werden sollen.
- Erste Kennblätter erstellen, inklusive Messzielen und Verantwortlichkeiten.
Etappe 2: Datenqualität und Automatisierung
- Technische Datenpfade analysieren: Woher kommen die Rohdaten, in welchem Format, mit welcher Qualität?
- Mit einfachen Werkzeugen (z.B. Python-Skripte, Datenbankansichten) die wichtigsten FlĂĽsse automatisieren.
- Plausibilitätsregeln implementieren (z.B. Mindest- und Maximalwerte, Vollständigkeitsprüfungen).
Etappe 3: Visualisierung und Anwendung im Alltag
- Schlanke Dashboards fĂĽr klar definierte Zielgruppen bauen.
- Kennzahlen systematisch in Regelkommunikation einbinden: Schichtbesprechungen, Wochenrunden, Management-Reviews.
- Rückmeldungen aus der Praxis nutzen, um Definitionen und Visualisierungen gezielt nachzuschärfen.
Damit wird aus einem einmaligen „Silvesterprojekt“ ein kontinuierlicher Verbesserungsprozess, der technisch handhabbar bleibt und organisatorisch verankert ist.
Rechtlicher Rahmen in Österreich: Daten als Grundlage für Arbeitssicherheit und Qualität
Daten und Kennzahlen spielen in vielen Bereichen auch rechtlich eine Rolle, insbesondere bei Arbeitssicherheit und Qualitätssicherung.
Beispiele:
- Das ArbeitnehmerInnenschutzgesetz (ASchG) verlangt in § 4 eine systematische Ermittlung und Beurteilung der Gefahren. In der Praxis basiert diese Gefährdungsbeurteilung zunehmend auch auf Daten zu Unfällen, Beinaheereignissen und Prozessabweichungen.
- In Bereichen mit Qualitätssicherung nach Normen (z.B. ÖNORM EN ISO 9001:2015) werden messbare Ziele, Kennzahlen und deren Überwachung ausdrücklich eingefordert. Ohne belastbare, nachvollziehbare Daten und definierte Kennzahlen wird der Nachweis gegenüber Kunden und Zertifizierungsstellen schwierig.
- In der Instandhaltung und beim sicheren Betrieb von Arbeitsmitteln sind Herstellerangaben und technische Normen (z.B. für Prüfintervalle von Druckgeräten oder Hebezeugen) einzuhalten; Ausfallstatistiken und Betriebsdaten können helfen, zusätzliche, über die Mindestvorgaben hinausgehende Maßnahmen sinnvoll zu planen. Gesetzliche Mindestvorgaben bleiben dabei unberührt und sind stets einzuhalten.
Auch hier gilt: Ein spontanes Dashboard ersetzt nicht die systematische Dokumentation und Bewertung, kann diese aber sinnvoll unterstützen – vorausgesetzt, Datenherkunft und Kennzahlenlogik sind klar dokumentiert.
Handlungsempfehlungen fĂĽr Technik und FĂĽhrung
-
Starten Sie mit maximal fĂĽnf wirklich relevanten Kennzahlen
Lieber wenige, saubere Kennzahlen mit klarer Definition als viele „nice to have“-Zahlen ohne Aussagekraft. -
Schaffen Sie einen fachlich-technischen Schulterschluss
Fachabteilungen definieren Ziele und Bedeutungen, Technik und Digitalverantwortliche kĂĽmmern sich um Datenpfade, Automatisierung und PrĂĽfregeln. -
Dokumentation als integralen Bestandteil sehen
Kennblätter, Datenflussdiagramme und Versionierungen sind kein Overhead, sondern die Basis für Vertrauen in die Zahlen. -
Python und einfache Automatisierung gezielt nutzen
Schon einfache Skripte können: - Daten aus Maschinen- oder Systemexporten einlesen,
- Berechnungen standardisieren,
-
Fehlerfälle kennzeichnen statt „schönzurechnen“.
-
Silvester bewusst entlasten
Jahreswechsel eignet sich gut für Rückblicke und Zieldefinitionen – aber nicht für das erstmalige Aufsetzen von Kennzahlenlogik. Diese gehört idealerweise im Laufe des Jahres pilotiert, getestet und angepasst.
Fazit: Datenqualität ist eine Betriebseigenschaft, kein Feiertagsprojekt
Gute Daten sind wie ein stabiler Prozess: Sie entstehen durch klare Ziele, saubere Definitionen, kontinuierliche Pflege und gelebte Nutzung im Alltag. Ein spontanes Dashboard kann ein Einstieg sein, ersetzt aber nicht:
- die einheitliche Sprache ĂĽber Kennzahlen,
- die sauberen technischen Datenpfade,
- und die konsequente Einbindung in Entscheidungen.
Wenn Sie darüber nachdenken, „zwischen den Jahren endlich etwas mit Daten zu machen“, ist das ein guter Moment, um das Jahr darauf mit einem strukturierten, aber pragmatischen Fahrplan zu planen – statt mit einem einmaligen Silvesterfeuerwerk. 🎇
Nutzen Sie die Chance, Daten Schritt fĂĽr Schritt zu einer echten Betriebseigenschaft zu machen. Wenn Sie UnterstĂĽtzung bei der Definition Ihrer ersten fĂĽnf Kernkennzahlen, beim Aufbau eines einfachen Python-Datenflows oder bei der Bewertung Ihrer bestehenden Auswertungen brauchen, melden Sie sich.
Stellen Sie gerne konkrete Rückfragen zu Ihrem Anwendungsfall – je technischer, desto besser.
Quellen (Auswahl)
– Ă–NORM EN ISO 9001:2015 Qualitätsmanagementsysteme – Anforderungen, Austrian Standards, 2015
– ArbeitnehmerInnenschutzgesetz (ASchG), BGBl. Nr. 450/1994 idgF, Ă–sterreich
– Bitkom (Hrsg.): Data-Driven Business – Status quo und Herausforderungen in Unternehmen, Studie, 2021, bitkom.org
– McKinsey Global Institute: The age of analytics: Competing in a data-driven world, 2016, mckinsey.com
📊 #DatenMitDenken #LemconTech #IngenieurbueroLemmerer #Datenqualitaet #Kennzahlen #Industrie40 #Produktion #Instandhaltung
