Kostenlose DevOps-Analyse
Zurück zum Blog
Tools & Strategie·15. Februar 2026·10 min Lesezeit

DevOps-Reifegrad
messen.
Benchmarken.

DORA-Metriken, Reifegradmodelle und Value-Stream-Mapping — die wichtigsten Methoden, um Ihren Stand objektiv zu bewerten und Verbesserungspotenziale zu identifizieren.

AS

Andreas Schönfeld

Geschäftsführer & DevOps-Berater, Comquent GmbH

18+ Jahre Erfahrung in DevOps, CI/CD und Industrial Automation

Veröffentlicht: 15. Februar 2026Zuletzt aktualisiert: 25. März 2026
DevOps-Reifegrad messen — DORA-Metriken und Reifegradmodelle
01
// 01Kurz erklärt

Wir machen
DevOps — aber
was heißt das?

Eine DevOps-Reifegradanalyse ist eine systematische Bewertung des aktuellen Stands eines Unternehmens in den Dimensionen Kultur, Automatisierung, Prozesse und Metriken. Das Ziel: objektiv messen, wo Sie stehen, und datenbasiert entscheiden, wo Sie investieren.

Die drei wichtigsten Methoden: DORA-Metriken (quantitative Performance-Messung), Reifegradmodelle (qualitative Einordnung in 5 Stufen) und Value-Stream-Mapping (Prozessanalyse zur Engpass-Identifikation).

Haben Sie eine CI/CD-Pipeline? Automatisierte Tests? Infrastructure as Code? Oder bedeutet „DevOps" nur, dass Entwickler und Operations im selben Slack-Kanal sind?

4
DORA-Metriken
5
Reifegrad-Stufen
3
Methoden kombiniert
80%
sind oft Wartezeit

Quelle: DORA State of DevOps Report · Comquent Projekterfahrungen

02
// 02DORA-Metriken

Vier Zahlen.
Ein Branchenstandard.

Das DORA-Team (gegründet von Dr. Nicole Forsgren, Jez Humble und Gene Kim, heute Teil von Google Cloud) hat vier Metriken identifiziert, die die Software-Delivery-Performance zuverlässig messen — wissenschaftlich belegt in „Accelerate" (2018) und im jährlichen State of DevOps Report.

Metrik
Elite
High
Medium
Low
01Deployment Frequency
Deployment-Häufigkeit
Mehrmals pro Tag
Einmal pro Woche bis einmal pro Monat
Einmal pro Monat bis alle 6 Monate
Seltener als alle 6 Monate
02Lead Time for Changes
Vorlaufzeit für Änderungen
Weniger als 1 Stunde
1 Tag bis 1 Woche
1 Woche bis 1 Monat
Mehr als 1 Monat
03Change Failure Rate
Änderungs-Fehlerquote
0–5 %
6–15 %
16–30 %
Mehr als 30 %
04Mean Time to Recovery
Mittlere Wiederherstellungszeit
Weniger als 1 Stunde
Weniger als 1 Tag
1 Tag bis 1 Woche
Mehr als 1 Woche

Quelle: State of DevOps Report 2024 (dora.dev). Der DORA 2025 Report führt 7 Team-Archetypes als differenziertere Kategorisierung ein.

Wichtig für industrielle Umgebungen

In der OT-Welt gelten andere Maßstäbe. „Elite"-Performance bei Deployment Frequency bedeutet für eine SPS-Anlage nicht 50 Deployments pro Tag, sondern kontrollierte, automatisierte Releases im geplanten Wartungsfenster. Mehr dazu im Abschnitt DevOps-Reifegrad in industriellen Umgebungen.

Tools für automatische DORA-Erfassung
Sleuth

DORA-Dashboards, Change-Tracking

LinearB

Dev-Workflow-Analytics, Benchmarks

Faros AI

Open-Source, Multi-Tool-Integration

GitLab Value Stream Analytics

Nativ in GitLab integriert

Haystack

GitHub-fokussiert, Team-Insights

Jellyfish

Engineering-Management-Plattform

// 03Reifegradmodell

Fünf Stufen.
Eine Reise.

Während DORA-Metriken die Performance quantitativ messen, bietet ein Reifegradmodell eine qualitative Einordnung über alle Dimensionen: Technologie, Prozesse, Kultur und Organisation.

  • /01

    Level 01 · Initial

    Viele OT-Teams starten hier — das ist keine Schande, sondern der Ausgangspunkt.

    • Manuelle Builds und Deployments
    • Keine oder minimale Testautomatisierung
    • Versionskontrolle nur sporadisch genutzt
    • Kein definierter Release-Prozess
    • Wissen in einzelnen Köpfen, nicht dokumentiert
  • /02

    Level 02 · Managed

    Der erste große Schritt — Git und automatisierte Builds sind die Basis für alles Weitere.

    • Versionskontrolle ist Standard (Git)
    • Grundlegende CI: automatisierte Builds
    • Einige manuelle Tests vor dem Release
    • Dokumentierte Release-Prozesse
    • Erste Metriken werden erhoben
  • /03

    Level 03 · Defined

    Hier beginnt der echte Produktivitätssprung — manuelle Fehlerquellen verschwinden.

    • Vollständige CI/CD-Pipeline implementiert
    • Automatisierte Tests (Unit, Integration)
    • Infrastructure as Code für Umgebungen
    • Quality Gates definiert und durchgesetzt
    • Deployment-Prozess weitgehend automatisiert
  • /04

    Level 04 · Measured

    Die Basis für kontinuierliche Verbesserung — Sie wissen, wo Sie stehen und wohin Sie wollen.

    • DORA-Metriken werden aktiv gemessen
    • Feedback-Schleifen in die Pipeline integriert
    • Security in die Pipeline integriert (DevSecOps)
    • Datengetriebene Entscheidungen über Verbesserungen
    • Automatisierte Compliance-Checks
  • /05

    Level 05 · Optimizing

    Das Ziel — aber kein Endzustand. Auch Level 5 bedeutet: weiter lernen, weiter verbessern.

    • Kontinuierliche Optimierung basierend auf Metriken
    • Self-Service-Plattform für Entwicklerteams
    • KI-gestützte Anomalie-Erkennung in Pipelines
    • Chaos Engineering und Resilience Testing
    • Kulturell: Blameless Postmortems, Lernorganisation
04
// 04Value-Stream-Mapping

DORA sagt, wo Sie stehen.
VSM sagt
warum.

Value-Stream-Mapping kommt aus dem Lean Manufacturing und passt perfekt zur Industrial-DevOps-Welt.

Typisches Ergebnis eines VSM-Workshops
Gesamte Lead Time
23 Tage
Aktive Arbeitszeit
4,5 Tage
19,5 %
Wartezeit
18,5 Tage
80,5 %

Größter Engpass: Warten auf Testumgebung (7 Tage) + Freigabeprozess (5 Tage)

Sechs Schritte
zum fertigen VSM.

  • /01

    Prozess abgrenzen

    Definieren Sie Start- und Endpunkt: vom Feature-Request oder Bug-Report bis zum produktiven Deployment. Welche Teams und Systeme sind beteiligt?

  • /02

    Ist-Zustand aufnehmen

    Dokumentieren Sie jeden Schritt im aktuellen Prozess: Wer macht was, wie lange dauert es, welche Übergaben gibt es? Post-its an einer großen Wand sind ideal.

  • /03

    Wartezeiten identifizieren

    Messen Sie die aktive Arbeitszeit vs. Wartezeit pro Schritt. Häufig sind 80 % der Lead Time reine Wartezeit — z.B. auf Freigaben, Umgebungen oder Feedback.

  • /04

    Engpässe markieren

    Wo staut sich die Arbeit? Welcher Schritt hat die längste Wartezeit? Wo entstehen die meisten Fehler? Diese Engpässe sind Ihre größten Hebel.

  • /05

    Soll-Zustand entwerfen

    Wie sähe der ideale Prozess aus? Welche manuellen Schritte können automatisiert werden? Welche Übergaben können eliminiert werden?

  • /06

    Maßnahmen priorisieren

    Nicht alles auf einmal. Priorisieren Sie nach Impact und Aufwand. Starten Sie mit dem Engpass, der den größten Hebel hat — oft ist es die Test-Automatisierung.

05
// 05Schnellcheck

Zehn Fragen.
Ein Punktwert.

Beantworten Sie diese Fragen mit Ja oder Nein. Jedes Ja ist ein Punkt. Ihre Punktzahl gibt eine erste Orientierung.

  1. Q.01Nutzt Ihr Team Versionskontrolle (Git) für allen Code — inklusive Infrastructure as Code?
  2. Q.02Werden Builds automatisch bei jedem Commit ausgelöst?
  3. Q.03Haben Sie automatisierte Tests, die bei jedem Build laufen?
  4. Q.04Können Sie ein Deployment auf Knopfdruck durchführen (ohne manuelle Schritte)?
  5. Q.05Messen Sie mindestens eine der DORA-Metriken regelmäßig?
  6. Q.06Gibt es definierte Quality Gates, die automatisch geprüft werden?
  7. Q.07Führen Sie regelmäßig Retrospektiven durch und setzen die Ergebnisse um?
  8. Q.08Sind Security-Checks in Ihre Pipeline integriert (nicht erst am Ende)?
  9. Q.09Können Sie innerhalb von 1 Stunde ein Rollback durchführen?
  10. Q.10Arbeiten Entwicklung und Operations (oder IT und OT) regelmäßig zusammen?
0–3
Anfangsphase

Großes Potenzial

4–7
Gute Basis

Gezielte Verbesserungen möglich

8–10
Fortgeschritten

Optimierung und Skalierung

// 06Häufige Fehler

Fünf Fehler
bei der
Reifegradmessung.

  • /01

    Nur Tooling messen

    Ein Reifegradmodell, das nur Tools und Technologien bewertet, übersieht die kulturellen und prozessualen Aspekte — die oft die größten Hebel sind.

    Besser

    Kultur, Prozesse und Technologie gleichwertig bewerten.

  • /02

    Reifegrad als Ziel

    Level 5 ist kein Selbstzweck. Ein Unternehmen mit 2 Releases pro Jahr braucht keine Pipeline für 50 Deployments pro Tag.

    Besser

    Reifegrad an den Geschäftsanforderungen ausrichten. Welches Level brauchen Sie wirklich?

  • /03

    Einmalige Messung

    Der Reifegrad wird einmal erhoben und dann vergessen. Ohne regelmäßige Messung gibt es kein Feedback über Fortschritt oder Rückschritt.

    Besser

    Quartalsweise messen und im Team besprechen.

  • /04

    Vergleich mit anderen Unternehmen

    Jedes Unternehmen hat andere Voraussetzungen. Ein Vergleich mit Google oder Netflix ist irreführend und demotivierend.

    Besser

    Vergleichen Sie sich mit sich selbst — von Quartal zu Quartal.

  • /05

    Metriken ohne Kontext

    Deployment Frequency allein sagt nichts aus. 50 Deployments pro Tag bei 30 % Fehlerquote sind schlimmer als 2 pro Woche bei 1 % Fehlerquote.

    Besser

    Metriken immer als Gesamtbild betrachten. DORA-Metriken wirken im Zusammenspiel.

07
// 07OT-Kontext

Reifegrad in
industriellen
Umgebungen.

In der OT-Welt gelten andere Rahmenbedingungen als in der klassischen IT-Softwareentwicklung. Dieselben Metriken — aber andere Benchmarks.

  • /01

    Safety vor Speed

    In Produktionsanlagen hat funktionale Sicherheit (Safety) oberste Priorität. Ein fehlerhaftes Deployment kann physischen Schaden verursachen. Reifegradmodelle müssen Safety-Gates und Zertifizierungen (z.B. IEC 62443, IEC 61508) berücksichtigen.

  • /02

    Geplante Wartungsfenster

    Continuous Deployment im IT-Sinne ist in der OT selten möglich. Releases erfolgen in geplanten Wartungsfenstern — oft nur alle 4–8 Wochen. Die Deployment Frequency ist daher kein geeigneter Vergleichsmaßstab mit IT-Teams.

  • /03

    Heterogene Toollandschaft

    SPS/PLC-Code (z.B. TIA-Portal), SCADA-Konfigurationen und Edge-Gateway-Software erfordern spezialisierte CI/CD-Toolchains. Standard-IT-Tools wie GitHub Actions funktionieren hier nicht ohne Weiteres.

  • /04

    Angepasste Benchmarks

    Ein „Elite"-OT-Team deployt nicht mehrmals täglich, sondern hat automatisierte, reproduzierbare und rücksetzbare Releases im Wartungsfenster — mit einer Change Failure Rate nahe null und vollständiger Traceability.

08
// 08Methodenvergleich

Drei Methoden.
Ein Vergleich.

Welche Methode passt wann? Die Übersicht hilft bei der Auswahl für Ihr DevOps-Assessment.

KriteriumDORA-MetrikenReifegradmodellValue-Stream-Mapping
TypQuantitativQualitativProzessanalyse
AufwandGering (Tool-basiert)Mittel (½–2 Tage)Hoch (1–3 Tage)
Ergebnis4 Kennzahlen + BenchmarkLevel-Einordnung (1–5)Prozess-Visualisierung + Engpässe
FrequenzKontinuierlichAlle 6–12 MonateBei Bedarf / jährlich
StärkeObjektiv, vergleichbarGanzheitlich, strategischKonkrete Handlungsfelder
SchwächeNur Software-DeliverySubjektiv, kontextabhängigZeitintensiv, Snapshot
// 09Quellen & Referenzen

Woher die
Zahlen stammen.

// 10Häufige Fragen

Was Kunden
wirklich fragen.

Q.01
Was ist eine DevOps-Reifegradanalyse?
Eine DevOps-Reifegradanalyse (auch: DevOps Maturity Assessment) bewertet systematisch, wie weit ein Unternehmen in den Bereichen Kultur, Automatisierung, Prozesse und Metriken fortgeschritten ist. Das Ergebnis ist ein objektives Bild des Ist-Zustands mit konkreten Handlungsempfehlungen für die nächsten Schritte.
Q.02
Was sind die DORA-Metriken und warum sind sie wichtig?
DORA-Metriken sind vier Schlüsselkennzahlen aus dem State of DevOps Report: Deployment Frequency, Lead Time for Changes, Change Failure Rate und Mean Time to Recovery. Sie korrelieren nachweislich mit der Gesamtleistung von Softwareorganisationen und ermöglichen einen branchenübergreifenden Benchmark.
Q.03
Wie führt man ein DevOps Maturity Assessment durch?
Ein Assessment umfasst typischerweise Interviews mit Stakeholdern, eine Analyse der bestehenden Toolchain und Prozesse sowie die Bewertung anhand eines Reifegradmodells. Der Prozess dauert je nach Unternehmensgröße zwischen einem halben und zwei Tagen.
Q.04
Was ist Value-Stream-Mapping im DevOps-Kontext?
Value-Stream-Mapping visualisiert den gesamten Wertschöpfungsstrom von der Idee bis zum Deployment und identifiziert Wartezeiten, Engpässe und manuelle Schritte. Es zeigt konkret, wo Automatisierung und Prozessverbesserung den größten Hebel bieten.
Q.05
Wie oft sollte man den DevOps-Reifegrad messen?
Eine umfassende Reifegradanalyse sollte alle sechs bis zwölf Monate durchgeführt werden, um Fortschritte zu messen und neue Verbesserungspotenziale zu identifizieren. DORA-Metriken sollten hingegen kontinuierlich getrackt werden, um schnell auf Veränderungen reagieren zu können.
Q.06
Was ist ein guter DevOps-Reifegrad?
Es gibt keinen universell „guten" Reifegrad — entscheidend ist der Fortschritt relativ zum eigenen Ausgangspunkt und den Unternehmenszielen. Laut DORA-Benchmark deployen Elite-Performer mehrmals täglich mit einer Change Failure Rate unter 5 % und einer Recovery Time unter einer Stunde.
Q.07
Welche Fehler sollte man bei der Reifegradmessung vermeiden?
Die häufigsten Fehler sind die Fokussierung auf Vanity-Metriken statt auf Outcome-Metriken, das Messen ohne anschließende Maßnahmen und der Vergleich mit Teams in völlig anderen Kontexten. Metriken sollten immer zur Verbesserung motivieren, nicht zur Bestrafung genutzt werden.
Q.08
Gibt es einen kostenlosen DevOps-Reifegrad-Check?
Ja, Comquent bietet einen kostenlosen Online-Schnellcheck mit 10–15 Fragen an, der in drei Minuten eine erste Einschätzung Ihres DevOps-Reifegrads liefert. Für eine tiefergehende Analyse empfiehlt sich ein professionelles Assessment mit Benchmark-Vergleich und individuellen Handlungsempfehlungen.
Q.09
Was kostet ein professionelles DevOps Assessment?
Die Kosten variieren je nach Umfang und Unternehmensgröße. Ein halbtägiger Quick-Scan liegt typischerweise bei 1.500–3.000 €, ein umfassendes Assessment über 1–2 Tage bei 5.000–10.000 €. Comquent bietet einen kostenlosen 90-minütigen DevOps Quick-Scan als Einstieg an.
Q.10
Was ist der Unterschied zwischen DORA-Metriken und einem Reifegradmodell?
DORA-Metriken messen quantitativ die Software-Delivery-Performance anhand von vier Kennzahlen. Ein Reifegradmodell bewertet qualitativ den Gesamtzustand über alle Dimensionen — Kultur, Prozesse, Technologie und Organisation — und ordnet das Unternehmen in Stufen ein (Level 1–5). Beide Methoden ergänzen sich: DORA liefert harte Zahlen, das Reifegradmodell gibt den strategischen Überblick.
Q.11
Welche Tools helfen bei der automatischen DORA-Metrik-Erfassung?
Zu den führenden Tools gehören Sleuth, LinearB, Faros AI, GitLab Value Stream Analytics, Haystack und Jellyfish. Diese integrieren sich in bestehende CI/CD-Pipelines und Git-Repositories und liefern Echtzeit-Dashboards mit Benchmark-Vergleichen.
// Kostenloser Reifegrad-Check

3 Minuten.
Personalisierter Report.
Top-3-Hebel.

Unser interaktiver Online-Check bewertet Ihren DevOps-Reifegrad. Sie erhalten Score, Benchmark-Vergleich und Top-3-Handlungsempfehlungen.

// Nächster Schritt

Erstgespräch.
Kostenlos.
90 Tage zum Ergebnis.

Wir klären gemeinsam, wie Sie in 90 Tagen die ersten messbaren Industrial-DevOps-Erfolge erzielen.

Erstgespräch buchen
Seit 2006 · 47+ Projekte
Industrie · Automotive · Finance