Kostenlose DevOps-Analyse
Zurück zum Blog
DevOps Metriken · DORA · KPI·26. März 2026·12 min Lesezeit

DORA Metrics.
Messen. Verstehen.
Verbessern.

Deployment Frequency, Lead Time for Changes, Change Failure Rate und Mean Time to Recovery — der Goldstandard zur Messung der Software-Delivery-Performance.

AS

Andreas Schönfeld

Geschäftsführer & DevOps-Berater, Comquent GmbH

18+ Jahre Erfahrung in DevOps, CI/CD und Industrial Automation

Veröffentlicht: 26. März 2026
// Direkte Antwort

DORA-Metriken sind vier KPIs zur Messung der DevOps-Performance: Deployment Frequency (Deployments pro Tag/Woche), Lead Time for Changes (Commit-zu-Deploy-Dauer), Change Failure Rate (Anteil fehlerhafter Releases) und Mean Time to Recovery (Wiederherstellungszeit nach Incidents). Sie stammen aus dem DORA-Forschungsprogramm (DevOps Research and Assessment) und korrelieren nachweislich mit Geschäftserfolg. Elite-Performer deployen mehrmals täglich mit Lead Times unter 1 Stunde und MTTR unter 1 Stunde.

DORA Metrics — DevOps-Performance messen und verbessern
01
// 01Kurz erklärt

Ohne Metriken
bleibt DevOps
Bauchgefühl.

„Wir sind schneller geworden." „Die Qualität hat sich verbessert." — Solche Aussagen hören wir häufig. Aber auf die Nachfrage „Um wie viel schneller?" wird es still.

Hier kommen die DORA Metrics ins Spiel. Entwickelt vom DORA-Team (heute Teil von Google Cloud), basieren sie auf Forschung mit Daten von über 36.000 Fachleuten weltweit. Sie korrelieren nachweislich mit dem Geschäftserfolg von Softwareorganisationen.

Grundlage des jährlichen State of DevOps Report.

973×
häufiger deployen (Elite)
6.570×
kürzere Lead Time
weniger Ausfälle
36.000
DORA-Befragte

Quelle: Accelerate State of DevOps Report 2024 · DORA / Google Cloud

02
// 02Warum nicht Velocity?
DORA misst Outcomes.
Velocity misst nur
geschätzten Aufwand.
— Forsgren, Humble, Kim · „Accelerate" (2018)
// DORA Metrics — Outcomes
  • 01Messen tatsächliche Delivery-Leistung
  • 02Korrelieren mit Geschäftserfolg
  • 03Branchenübergreifend vergleichbar
  • 04Schwer zu manipulieren
  • 05Berücksichtigen Geschwindigkeit UND Stabilität
// Velocity / Story Points — Output
  • 01Messen nur geschätzten Aufwand, nicht Wertlieferung
  • 02Kein Zusammenhang mit Geschäftserfolg belegt
  • 03Nicht zwischen Teams vergleichbar
  • 04Leicht aufzublähen (Inflation)
  • 05Ignorieren Qualität und Stabilität
03
// 03Die vier Metriken

Vier Kennzahlen.
Geschwindigkeit
und Stabilität.

Jede Metrik beleuchtet einen anderen Aspekt Ihrer Delivery-Performance. Gemeinsam bilden sie ein ausgewogenes Bild aus Geschwindigkeit (Deployment Frequency, Lead Time) und Stabilität (Change Failure Rate, MTTR).

#
Metrik
Kurzdefinition
Elite-Niveau
01
Deployment Frequency
Deployment-Häufigkeit
Zählen Sie die Anzahl erfolgreicher Deployments in die Produktionsumgebung pro Zeiteinheit.
Mehrmals pro Tag
02
Lead Time for Changes
Vorlaufzeit für Änderungen
Messen Sie die Zeitspanne vom ersten Commit eines Changesets bis zum erfolgreichen Deployment in Produktion.
Weniger als 1 Stunde
03
Change Failure Rate
Änderungs-Fehlerquote
Teilen Sie die Anzahl fehlgeschlagener Deployments (die einen Hotfix, Rollback oder Patch erfordern) durch die Gesamtzahl der Deployments.
0–5 %
04
Mean Time to Recovery (MTTR)
Mittlere Wiederherstellungszeit
Messen Sie die Zeitspanne vom Erkennen eines Produktionsproblems bis zur vollständigen Wiederherstellung.
Weniger als 1 Stunde
  • /01

    Deployment Frequency

    Wie oft deployt Ihr Team erfolgreich in die Produktion? Diese Metrik misst die Geschwindigkeit, mit der Ihr Team Wert an Kunden liefert. Eine hohe Deployment Frequency ist ein Indikator für kleine Batch-Größen, automatisierte Pipelines und Vertrauen in den Release-Prozess.

    EliteMehrmals pro Tag
    HighEinmal pro Woche bis einmal pro Monat
    MediumEinmal pro Monat bis alle 6 Monate
    LowSeltener als alle 6 Monate
    So messen Sie

    Zählen Sie die Anzahl erfolgreicher Deployments in die Produktionsumgebung pro Zeiteinheit. Nutzen Sie Deployment-Logs aus Jenkins, GitLab CI, ArgoCD oder Ihrem Release-Management-Tool.

    Verbesserungstipps
    • 01Reduzieren Sie die Batch-Größe: Kleinere, häufigere Releases statt großer Big-Bang-Deployments
    • 02Automatisieren Sie den gesamten Deployment-Prozess — kein manueller Schritt darf den Release blockieren
    • 03Implementieren Sie Feature Flags, um unfertigen Code sicher zu deployen
    • 04Entkoppeln Sie Deployment von Release: Deployen Sie kontinuierlich, aktivieren Sie Features gezielt
  • /02

    Lead Time for Changes

    Wie lange dauert es vom Code-Commit bis zum produktiven Deployment? Die Lead Time for Changes misst die Effizienz Ihrer gesamten Delivery-Pipeline — von der Entwicklung über Tests und Quality Gates bis zum Release.

    EliteWeniger als 1 Stunde
    High1 Tag bis 1 Woche
    Medium1 Woche bis 1 Monat
    LowMehr als 1 Monat
    So messen Sie

    Messen Sie die Zeitspanne vom ersten Commit eines Changesets bis zum erfolgreichen Deployment in Produktion. Erfassen Sie die Daten aus Ihrem Git-System und Deployment-Tool.

    Verbesserungstipps
    • 01Identifizieren Sie Wartezeiten mit Value-Stream-Mapping — oft sind 80 % der Lead Time reine Wartezeit
    • 02Automatisieren Sie Quality Gates: Code Review, Tests, Security Scans müssen parallel laufen
    • 03Eliminieren Sie manuelle Freigabeprozesse — ersetzen Sie sie durch automatisierte Policy Checks
    • 04Nutzen Sie Trunk-Based Development statt langlebiger Feature-Branches
  • /03

    Change Failure Rate

    Wie viel Prozent der Deployments führen zu einem Fehler, der einen Hotfix, Rollback oder Patch erfordert? Die Change Failure Rate misst die Qualität Ihrer Releases und die Effektivität Ihrer Quality Gates.

    Elite0–5 %
    High6–15 %
    Medium16–30 %
    LowMehr als 30 %
    So messen Sie

    Teilen Sie die Anzahl fehlgeschlagener Deployments (die einen Hotfix, Rollback oder Patch erfordern) durch die Gesamtzahl der Deployments. Erfassen Sie Incidents aus Ihrem Incident-Management-System.

    Verbesserungstipps
    • 01Investieren Sie in automatisierte Tests: Unit, Integration, E2E — je mehr, desto besser
    • 02Implementieren Sie Canary Deployments oder Blue-Green Deployments für risikoarme Releases
    • 03Führen Sie Post-Mortems nach jedem Fehler durch — ohne Schuldzuweisungen (Blameless)
    • 04Stärken Sie Code Reviews: Vier-Augen-Prinzip mit klaren Review-Checklisten
  • /04

    Mean Time to Recovery (MTTR)

    Wie schnell kann Ihr Team einen Service nach einem Ausfall oder Fehler wiederherstellen? MTTR misst die Resilienz Ihrer Systeme und die Reaktionsfähigkeit Ihres Teams — von der Erkennung des Problems bis zur Lösung.

    EliteWeniger als 1 Stunde
    HighWeniger als 1 Tag
    Medium1 Tag bis 1 Woche
    LowMehr als 1 Woche
    So messen Sie

    Messen Sie die Zeitspanne vom Erkennen eines Produktionsproblems bis zur vollständigen Wiederherstellung. Nutzen Sie Daten aus Monitoring-Tools (Grafana, Datadog, PagerDuty) und Incident-Tickets.

    Verbesserungstipps
    • 01Investieren Sie in Observability: Logging, Monitoring und Alerting müssen lückenlos sein
    • 02Implementieren Sie automatisierte Rollback-Mechanismen — ein Klick, nicht ein Kriegsrat
    • 03Führen Sie regelmäßige Incident-Response-Übungen durch (Game Days)
    • 04Reduzieren Sie die Mean Time to Detect (MTTD) mit proaktivem Monitoring und Anomalie-Erkennung
Geschwindigkeit und Stabilität gehören zusammen

Ein häufiger Irrtum: Schnellere Deployments führen zu mehr Fehlern. Die DORA-Forschung zeigt das Gegenteil — Elite-Performer sind gleichzeitig schneller und stabiler. Kleine, häufige Releases reduzieren das Risiko pro Release und ermöglichen schnellere Recovery.

// 04In der Praxis messen

Die meisten Daten
liegen bereits
in Ihren Systemen.

Sie müssen sie nur zusammenführen. Drei Kategorien von Quellen und Tools.

01
Kategorie 01

Datenquellen

  • CI/CD-Systeme: Jenkins, GitLab CI, GitHub Actions, Azure DevOps
  • Versionskontrolle: Git-Commit-Historie und Merge-Zeitpunkte
  • Deployment-Logs: ArgoCD, Spinnaker, Octopus Deploy
  • Incident-Management: PagerDuty, Opsgenie, ServiceNow
  • Monitoring: Grafana, Datadog, Prometheus, New Relic
02
Kategorie 02

Spezialisierte DORA-Tools

  • Sleuth — automatische DORA-Erfassung aus Git und CI/CD
  • LinearB — Developer Productivity und DORA Metrics
  • Faros AI — Engineering Intelligence Platform
  • Jellyfish — Engineering Management Platform
  • Eigene Dashboards mit Grafana + Prometheus
03
Kategorie 03

Open-Source-Optionen

  • Four Keys Project (Google) — Referenzimplementierung auf GitHub
  • DevLake (Apache) — Open-Source Engineering Analytics
  • Backstage (Spotify) — Developer Portal mit Metrics-Plugins
  • Custom Scripts mit Git-Log-Analyse und API-Integration

DORA-Dashboard aufbauen —
fünf Schritte.

  • /01

    Datenquellen identifizieren

    Welche CI/CD-Tools, Git-Hosting und Incident-Systeme nutzen Sie?

  • /02

    Events definieren

    Was zählt als „Deployment"? Was als „Change Failure"? Klare Definitionen sind entscheidend.

  • /03

    Daten zusammenführen

    Webhooks, API-Calls oder Batch-Jobs — bringen Sie alle Events in ein zentrales System.

  • /04

    Dashboard visualisieren

    Grafana, Datadog oder ein Custom-Dashboard — zeigen Sie Trends, nicht nur Momentaufnahmen.

  • /05

    Team-Review etablieren

    Monatliches Review der DORA Metrics im Team. Trends besprechen, Maßnahmen ableiten.

05
// 05Benchmark 2026

Wo steht die
Branche?

Der jährliche State of DevOps Report kategorisiert Teams in vier Performance-Stufen.

Stufe
Deploy Freq.
Lead Time
CFR
MTTR
Anteil Teams
Elite
Mehrmals täglich
< 1 Stunde
0–5 %
< 1 Stunde
18 %
Top-Performer mit vollautomatisierten Pipelines, Feature Flags, Canary Deployments und einer starken DevOps-Kultur. Diese Teams deployen kontinuierlich und reagieren in Minuten auf Probleme.
High
Wöchentlich bis monatlich
1 Tag – 1 Woche
6–15 %
< 1 Tag
28 %
Gut aufgestellte Teams mit funktionierenden CI/CD-Pipelines und automatisierten Tests. Die meisten Quality Gates sind automatisiert, manuelle Schritte werden sukzessive eliminiert.
Medium
Monatlich bis halbjährlich
1 Woche – 1 Monat
16–30 %
1 Tag – 1 Woche
32 %
Teams mit grundlegender CI/CD, aber noch vielen manuellen Schritten. Testabdeckung ist lückenhaft, Deployments erfordern oft Koordination mehrerer Teams.
Low
Seltener als halbjährlich
> 1 Monat
> 30 %
> 1 Woche
22 %
Teams mit überwiegend manuellen Prozessen. Releases sind große Events mit hohem Risiko. Wenig Automatisierung, lange Feedback-Zyklen.
06
// 06DORA für Industrial DevOps

Gleiche Metriken.
Andere
Benchmarks.

Die Standard-DORA-Benchmarks stammen aus der IT-Welt — Webapplikationen, Cloud-Services, SaaS. Für industrielle Umgebungen gelten andere Maßstäbe. Die Metriken bleiben dieselben, aber die Interpretation ändert sich.

Metrik
IT-Kontext
OT-Kontext
Erklärung
01Deployment Frequency
Mehrmals täglich
Kontrolliert im Wartungsfenster

In der OT-Welt sind ungeplante Deployments ein Sicherheitsrisiko. Elite-Performance bedeutet hier: automatisierte, reproduzierbare Releases im geplanten Wartungsfenster — nicht 50 Deployments pro Tag.

02Lead Time for Changes
Minuten bis Stunden
Tage bis Wochen (inkl. Validation)

Industrielle Systeme erfordern oft Hardware-in-the-Loop-Tests, Simulationen und Validierungsschritte, die Zeit brauchen. Der Fokus liegt auf der Automatisierung dieser Schritte, nicht auf deren Elimination.

03Change Failure Rate
< 5 % (Elite)
Nahe 0 % (Safety-Critical)

Bei SPS-gesteuerten Anlagen kann ein fehlerhaftes Deployment Menschen gefährden. Die Change Failure Rate muss hier durch umfassende Simulation, Quality Gates und IEC 62443-konforme Prozesse minimiert werden.

04Mean Time to Recovery
< 1 Stunde (Elite)
Abhängig von Anlage und Prozess

Ein Rollback auf einer SPS-Anlage ist komplexer als ein Container-Neustart. Automatisierte Rollback-Mechanismen und getestete Recovery-Prozeduren sind der Schlüssel — nicht die reine Geschwindigkeit.

Der Schlüssel: Automatisierung, nicht Geschwindigkeit

In der OT-Welt geht es nicht darum, so schnell wie möglich zu deployen. Es geht darum, den Weg vom Commit zum Deployment vollständig zu automatisieren — mit allen notwendigen Quality Gates, Simulationen und Validierungsschritten. Mehr dazu in unserem Industrial DevOps Angebot.

// 07Aktionsplan

Von der Messung
zur
Verbesserung.

Metriken erheben ist der erste Schritt. Der eigentliche Wert entsteht durch die systematische Verbesserung. Dieser 6-Schritte-Plan hat sich in über 75 Projekten bewährt.

  • /01

    Baseline etablieren

    Erheben Sie die vier DORA Metrics für mindestens ein Team über 4 Wochen. Nutzen Sie vorhandene Daten aus Git, CI/CD und Incident-Management. Perfekte Datenqualität ist nicht nötig — eine grobe Baseline reicht.

  • /02

    Engpässe identifizieren

    Analysieren Sie, welche Metrik am weitesten vom Zielwert entfernt ist. Führen Sie ein Value-Stream-Mapping durch, um die Ursachen zu finden. Oft sind es Wartezeiten auf Freigaben, fehlende Testautomatisierung oder manuelle Deployment-Schritte.

  • /03

    Einen Hebel wählen

    Fokussieren Sie sich auf eine Metrik und einen konkreten Verbesserungsbereich. Beispiel: Wenn die Lead Time hoch ist, automatisieren Sie zuerst die Quality Gates. Nicht alles auf einmal ändern.

  • /04

    Maßnahme umsetzen (2–4 Wochen)

    Setzen Sie die gewählte Verbesserung in einem kurzen Sprint um. Kleine, messbare Änderungen sind besser als große Transformationsprojekte. Dokumentieren Sie, was Sie verändert haben.

  • /05

    Messen und vergleichen

    Erheben Sie die DORA Metrics erneut und vergleichen Sie mit der Baseline. Hat sich die Zielmetrik verbessert? Haben sich andere Metriken verschlechtert (Trade-offs)? Teilen Sie die Ergebnisse im Team.

  • /06

    Kontinuierlich iterieren

    Wiederholen Sie den Zyklus: nächster Engpass, nächste Maßnahme, nächste Messung. Etablieren Sie ein monatliches oder quartalmäßiges DORA Review im Team. Der Trend ist wichtiger als der absolute Wert.

08
// 08Fazit

Messen.
Verstehen.
Verbessern.

DORA Metrics sind kein Selbstzweck. Sie sind ein Werkzeug, um datengetriebene Entscheidungen über Ihre DevOps-Strategie zu treffen. Die vier Metriken decken Geschwindigkeit und Stabilität gleichermaßen ab — und zeigen, dass beides kein Widerspruch ist.

Starten Sie einfach: Erheben Sie die vier Metriken für ein Team, vergleichen Sie mit den Benchmarks und identifizieren Sie Ihren größten Hebel. Das dauert einen halben Tag — und liefert Erkenntnisse, die Ihre gesamte DevOps-Strategie auf eine solide Basis stellen.

Für industrielle Umgebungen gelten besondere Maßstäbe — aber die Metriken funktionieren auch hier. Der Schlüssel ist nicht blinde Geschwindigkeit, sondern automatisierte, reproduzierbare und sichere Delivery-Prozesse.

Der Trend ist wichtiger als der absolute Wert.

// 09Häufige Fragen

Was Kunden
wirklich fragen.

Q.01
Was sind DORA Metrics?
DORA Metrics sind vier Schlüsselmetriken zur Messung der Software-Delivery-Performance: Deployment Frequency, Lead Time for Changes, Change Failure Rate und Mean Time to Recovery. Sie wurden vom DORA-Team (DevOps Research and Assessment) entwickelt und korrelieren nachweislich mit dem Geschäftserfolg von Softwareorganisationen.
Q.02
Wie misst man DORA Metrics?
DORA Metrics werden aus CI/CD-Pipeline-Daten, Git-Commits, Deployment-Logs und Incident-Management-Systemen erhoben. Tools wie Sleuth, LinearB, Faros AI, das Open-Source-Projekt Four Keys von Google oder eigene Dashboards mit Grafana können die Erfassung automatisieren. Die meisten Daten liegen bereits in Ihren bestehenden Systemen.
Q.03
Was ist eine gute Deployment Frequency?
Laut DORA-Benchmark deployen Elite-Performer mehrmals täglich, High-Performer wöchentlich bis monatlich. Für Industrial DevOps gelten andere Maßstäbe — hier ist ein kontrollierter Release-Rhythmus mit Quality Gates entscheidend, nicht die bloße Häufigkeit.
Q.04
Warum sind DORA Metrics besser als Velocity oder Story Points?
DORA Metrics messen Outcomes (tatsächliche Delivery-Leistung), während Velocity und Story Points nur Output messen. DORA korreliert nachweislich mit Geschäftserfolg und organisatorischer Performance, während Velocity leicht manipulierbar ist und keinen Zusammenhang mit dem Geschäftsergebnis hat.
Q.05
Wie oft sollte man DORA Metrics erheben?
Idealerweise kontinuierlich und automatisiert über ein Dashboard. Mindestens aber sollten Sie die Metriken monatlich erheben und im Team besprechen. Entscheidend ist der Trend über die Zeit, nicht eine einzelne Momentaufnahme.
Q.06
Gelten DORA Metrics auch für industrielle Umgebungen?
Ja, die vier Metriken sind universell anwendbar. Allerdings müssen die Benchmarks an den industriellen Kontext angepasst werden. Eine SPS-Anlage braucht keine 50 Deployments pro Tag — aber automatisierte, reproduzierbare Releases im geplanten Wartungsfenster sind auch hier Elite-Performance.
Q.07
Was ist der Unterschied zwischen Lead Time und Cycle Time?
Lead Time for Changes (DORA) misst die Zeit vom ersten Commit bis zum produktiven Deployment. Cycle Time misst die Zeit von der ersten Arbeit an einem Item bis zu dessen Fertigstellung. DORA fokussiert bewusst auf die Pipeline-Effizienz, nicht auf die gesamte Entwicklungszeit.
Q.08
Kann man DORA Metrics auch ohne spezielle Tools messen?
Ja. Für den Start genügen Git-Logs, CI/CD-Logs und eine einfache Tabellenkalkulation. Zählen Sie Deployments, messen Sie die Zeit vom Commit zum Deployment, notieren Sie fehlgeschlagene Releases und Recovery-Zeiten. Automatisierung kommt später.
// Reifegrad-Check

Bevor Sie
DORA messen.
3 Minuten.

Unser kostenloser DevOps-Reifegrad-Schnellcheck als erste Orientierung. Personalisierter Report mit Score, Benchmark-Vergleich und Top-3-Handlungsempfehlungen.

// Nächster Schritt

Erstgespräch.
Kostenlos.
90 Tage zum Ergebnis.

Wir klären gemeinsam, wie Sie in 90 Tagen die ersten messbaren Industrial-DevOps-Erfolge erzielen.

Erstgespräch buchen
Seit 2006 · 47+ Projekte
Industrie · Automotive · Finance