Postmortem-Metriken sind der Teil eines Incident-Postmortems, der aus einer Geschichte eine belastbare Lernschleife macht. Viele Teams dokumentieren Timeline, Root Cause und Action Items – aber die Metriken sind oft zu grob („MTTR war 45 Minuten“) oder zu technisch („CPU war hoch“), sodass spätere Vergleiche schwierig werden. Genau hier liegt das Potenzial: Wenn Sie Postmortem-Metriken sauber ergänzen, können Sie Muster über Wochen und Monate erkennen, Investitionen begründen, On-Call entlasten und das Risiko wiederkehrender Incidents messbar senken. Wichtig ist dabei nicht, möglichst viele Zahlen zu sammeln, sondern die richtigen Metriken so zu definieren, dass sie wiederholbar, vergleichbar und handlungsorientiert sind. Dieser Artikel zeigt, welche Postmortem-Metriken typischerweise fehlen, wie Sie sie strukturieren (Impact, Detektion, Diagnose, Mitigation, Kommunikation, Recovery), wie Sie Metriken mit Observability-Daten verbinden und wie Sie typische Fallstricke vermeiden. Ziel ist ein Set an Postmortem-Metriken, das sowohl Einsteigern hilft, Incidents systematisch auszuwerten, als auch fortgeschrittenen SRE-Teams eine Grundlage für Governance, Reliability-Investments und kontinuierliche Verbesserung bietet.
Warum „mehr Metriken“ nicht automatisch besser ist
Ein Postmortem ist kein Reporting-Format für ein Management-Dashboard, sondern ein Werkzeug, um Resilienz zu steigern. Metriken sollten deshalb drei Eigenschaften erfüllen:
- Messbar: Die Zahl lässt sich aus Logs, Traces, Metriken oder klaren Prozessdaten ableiten – nicht aus Erinnerungen.
- Vergleichbar: Die Definition bleibt über Incidents hinweg konstant, sodass Trends sichtbar werden.
- Handlungsorientiert: Eine Veränderung der Metrik führt zu konkreten Entscheidungen (z. B. Timeout-Alignment, Alert-Tuning, Runbook-Ausbau).
Wenn Sie Metriken ergänzen, sollten Sie daher zunächst das Ziel klären: Wollen Sie schneller erkennen? Schneller eingrenzen? Sicherer mitigieren? Oder Regressions verhindern? Erst danach entscheidet sich, welche Metriken wirklich fehlen.
Grundgerüst: Metriken entlang des Incident-Lebenszyklus
Ein robustes Schema ist, Postmortem-Metriken entlang des Lebenszyklus zu gruppieren. Dadurch vermeiden Sie „Metrik-Friedhöfe“ und halten die Sammlung fokussiert.
- Impact: Was war der Schaden – technisch, fachlich, finanziell, operativ?
- Detektion: Wie schnell und wie zuverlässig wurde der Incident erkannt?
- Diagnose: Wie lange dauerte es bis zur belastbaren Hypothese und zur Bestätigung?
- Mitigation: Wie schnell wurde der Impact reduziert, und wie risikoreich waren die Maßnahmen?
- Recovery: Wie stabil war die Rückkehr in den Normalbetrieb, inklusive Backlog-Abbau?
- Kommunikation: Wie gut waren Status-Updates, Ownership und Single Source of Truth?
- Prävention: Welche Maßnahmen verhindern Wiederholung – und wie messen Sie deren Wirksamkeit?
Impact-Metriken: Was häufig fehlt und warum es zählt
Viele Postmortems nennen eine Dauer und eine grobe Auswirkung („Checkout war langsam“). Für belastbare Entscheidungen braucht es präzisere Impact-Metriken, die nicht nur Technik, sondern Nutzer- und Geschäftsfolgen abbilden.
Nutzer- und Geschäftsauswirkung quantifizieren
- Betroffene Nutzer/Requests: Anzahl oder Anteil der Requests im Incident-Zeitfenster, die SLO-Verletzungen hatten.
- Fehlerrate nach Endpoint: Welche API-Routen waren betroffen? Welche hatten nur Long-Tail-Latenz, welche echte Fehler?
- Umsatz-/Conversion-Impact (falls messbar): Abbruchraten, verlorene Checkouts, SLA-Penalties. Wichtig: nur verwenden, wenn Datenqualität hoch ist.
- Backlog-Impact: Queue-Längen, verzögerte Jobs, Nachholeffekte nach Recovery.
SLO- und Error-Budget-Auswirkung
Wenn Sie SLOs nutzen, ist die Error-Budget-Dimension eine der wichtigsten Postmortem-Metriken. Sie beantwortet, wie „teuer“ der Incident für die Zuverlässigkeit war.
- Error Budget Burn (absolut): Wie viele „Budget-Einheiten“ wurden verbraucht?
- Burn Rate (relativ): Wie schnell wurde Budget im Vergleich zur erlaubten Rate verbrannt?
Für Grundlagen zu SLOs und Error Budgets ist das Google-SRE-Material eine etablierte Referenz: Service Level Objectives (Google SRE Book).
Detektionsmetriken: Alarmierung ist nur dann gut, wenn sie zuverlässig ist
Detektion wird oft auf „Time to Detect“ reduziert. In der Praxis sind mindestens drei Dimensionen relevant: Geschwindigkeit, Zuverlässigkeit und Signalqualität.
- MTTD (Mean Time to Detect): Zeit von Incident-Beginn bis zum ersten verlässlichen Signal (Alert oder Nutzerreport).
- Detektionsquelle: Alerting, Synthetics, Support, Social Media, interne Beobachtung. Das ist entscheidend, weil „Support entdeckt“ auf Monitoring-Lücken hindeutet.
- False-Negative-Rate (qualitativ): Wurde der Incident von den vorgesehenen Alerts erkannt? Wenn nicht: warum?
- Alert Precision: Anteil der Alerts, die wirklich relevant waren, vs. Lärm (Noise).
Ein hilfreicher Rahmen für Monitoring im verteilten System ist ebenfalls im SRE Book beschrieben: Monitoring Distributed Systems (Google SRE Book).
Diagnosemetriken: Zeit bis zur richtigen Hypothese messen
Viele Teams messen MTTR, aber nicht, warum die Zeit entsteht. Diagnosemetriken machen sichtbar, ob Sie im Incident „suchen“ oder „wissen“.
- TTFH (Time to First Hypothesis): Zeit bis zur ersten plausiblen Hypothese, die mit Daten hinterlegt ist.
- TTCH (Time to Confirm Hypothesis): Zeit bis zur Bestätigung oder Widerlegung der Hypothese.
- Hypothesenwechsel: Wie oft wurde die Hypothese gewechselt? Viele Wechsel deuten auf fehlende Observability oder irreführende Signale hin.
- Debugging-Schleifen: Anzahl der „Loops“ (z. B. Netzwerk → DB → App → Netzwerk). Das ist ein starkes Signal für fehlende Korrelationsdaten.
MTTR präziser aufsplitten statt als Monolith behandeln
Wenn Sie MTTR verwenden, ergänzen Sie eine Aufteilung in Phasen, um gezielt zu verbessern. Eine einfache Modellierung ist:
Wobei TTD (Time to Diagnose), TTM (Time to Mitigate) und TTR (Time to Recover) jeweils separat in Ihrem Postmortem stehen sollten. Dadurch erkennen Sie, ob Ihre Schwachstelle eher bei Alerts, bei Runbooks oder bei Recovery-Prozessen liegt.
Mitigation-Metriken: Wirkung, Risiko und Nebenwirkungen erfassen
Mitigation ist nicht nur „wir haben den Dienst neu gestartet“. Oft stabilisiert eine Maßnahme kurzfristig, verschiebt aber Risiken oder erzeugt Nebenwirkungen (Retry-Sturm, Cache-Stampede, Backlog).
- Time to Mitigate (TTM): Zeit von bestätigter Diagnose bis zur ersten Maßnahme, die den Impact spürbar reduziert.
- Mitigation-Effektgröße: Wie stark sanken Fehlerquote oder p99 nach der Maßnahme (in Prozent oder absolut)?
- Mitigation-Risiko: War die Maßnahme reversibel (Feature Flag), teilreversibel (Traffic Shift) oder riskant (Schema-Change, Datenmigration)?
- Rollback-Notwendigkeit: Musste zurückgerollt werden? Wie lange dauerte das? Das ist eine zentrale Change-Safety-Metrik.
- Secondary Effects: Wurden andere Services beeinträchtigt? Häufig sichtbar in steigenden Retries, Queueing oder CPU-Saturation.
Recovery-Metriken: Stabilität nach der „Rückkehr“ sichtbar machen
Viele Incidents gelten als „gelöst“, sobald die Fehlerrate sinkt. In Wirklichkeit beginnt dann oft die zweite Phase: Backlogs abarbeiten, Caches warm werden, Rebalances stabilisieren, Daten nachziehen. Wenn Sie das nicht messen, unterschätzen Sie den wahren Incident-Aufwand.
- Time to Full Recovery: Zeit bis alle SLIs wieder im Normalbereich liegen, nicht nur der Haupt-SLI.
- Backlog Drain Time: Zeit bis Queues, Streams, Jobs wieder auf Normalniveau sind.
- Stabilitätsfenster: Anzahl der „Re-Spikes“ oder Rückfälle innerhalb von z. B. 60 Minuten nach Recovery.
- Cache Rewarm Impact: Miss-Rate und DB-Load nach Recovery, falls Cache beteiligt ist.
Kommunikationsmetriken: Die menschliche Seite messbar machen, ohne zu bürokratisieren
Kommunikation wird oft qualitativ beschrieben („Updates waren okay“). Ein paar einfache, nicht-invasive Metriken helfen, Prozesse zu verbessern, ohne On-Call zusätzlich zu belasten.
- Time to Acknowledge: Zeit bis ein Incident offiziell übernommen wurde (Owner klar).
- Update Cadence: Zeit zwischen Status-Updates (intern/extern). Ziel ist Konsistenz, nicht maximale Frequenz.
- Single Source of Truth vorhanden: Gab es einen klaren Kanal/Doc, der als Wahrheit galt? Wenn nicht, ist das eine strukturelle Lücke.
- Stakeholder-Awareness: Wurden die richtigen Teams früh involviert (DB, Netzwerk, Security, Produkt)? Oder zu spät?
Observability-Lücken als Postmortem-Metriken: Was Sie nicht sehen konnten
Ein besonders wirkungsvoller Postmortem-Abschnitt ist „What we could not observe“. Das ist keine Schuldzuweisung, sondern eine präzise Liste fehlender Signale, die Diagnosezeit und Fehlentscheidungen beeinflusst haben.
- Fehlende Korrelation: Keine Trace-IDs in Logs, keine Verbindung zwischen APM und Infrastrukturmetriken.
- Zu grobe Labels: Keine Aufschlüsselung nach Endpoint, Zone, Node, Kunden-Tier.
- Zu hohe Kardinalität: Metriken existieren, sind aber nicht nutzbar (Kosten, Speicher, Abfragen zu langsam).
- Fehlende Netzwerk-Signale: Keine Retransmission- oder Drop-Metriken pro Node/Interface.
- Blind Spots in Dependencies: Externe APIs ohne Latenz-/Error-Metriken, DNS-Latenz nicht erfasst, TLS-Handshake-Zeit fehlt.
Als Referenz für standardisierte Telemetrie und Instrumentierung kann OpenTelemetry helfen, insbesondere um Traces und Metriken konsistent zu erfassen: OpenTelemetry Dokumentation.
Change- und Deployment-Metriken: Postmortems ohne Change-Kontext sind oft unvollständig
Viele Incidents korrelieren mit Änderungen: Deployments, Config-Updates, Feature Flags, Infrastrukturänderungen. Ohne Change-Metriken bleibt oft unklar, ob Sie ein Codeproblem, ein Konfigurationsproblem oder ein Prozessproblem hatten.
- Change Proximity: Zeitabstand zwischen letzter Änderung und Incident-Beginn.
- Change Type: Code, Config, Infrastructure, Dependency-Version, Policy-Change.
- Detection via Canary: Wurde der Fehler im Canary entdeckt oder erst nach Full Rollout?
- Rollback Time: Zeit bis Rollback abgeschlossen war (inkl. Propagation).
Wenn Sie bereits DevOps-/Delivery-Metriken verwenden, kann es sinnvoll sein, DORA-Metriken als Kontext heranzuziehen – nicht als Ersatz für Incident-Metriken, sondern als Ergänzung zur Change-Sicherheit: DORA Research und Metriken.
Team- und On-Call-Aufwand: Die versteckte Kostenstelle sichtbar machen
Postmortems unterschätzen oft den operativen Aufwand. Gerade bei wiederkehrenden Spikes oder komplexen Netzwerk-/Dependency-Themen ist die Belastung des On-Call-Systems ein entscheidender Faktor für Nachhaltigkeit.
- Personenstunden: Summe der aktiv beteiligten Engineering-Stunden (nicht nur Incident-Dauer).
- Handoffs: Anzahl Übergaben zwischen Teams. Viele Handoffs deuten auf unklare Ownership oder fehlende Runbooks hin.
- On-Call Interrupts: Anzahl Page-Ereignisse, Eskalationen, „Wake-ups“ außerhalb der Kernzeit.
- Ticket-Follow-up-Last: Anzahl und Größe der Action Items, sowie deren Durchlaufzeit.
Action-Item-Metriken: Nicht nur „was“, sondern „ob es wirkt“
Viele Postmortems enden mit einer Liste an Action Items. Was häufig fehlt, sind Metriken, die die Umsetzung und Wirksamkeit dieser Maßnahmen überprüfen. Ohne diese Metriken werden Action Items zu einem „Best Effort“ ohne Rückkopplung.
- Time to Implement: Zeit von Postmortem-Abschluss bis Umsetzung kritischer Maßnahmen.
- Verification Metric: Für jedes wichtige Action Item eine Messgröße, die zeigt, dass es wirkt (z. B. p99-Spikes reduziert, Alert Precision steigt).
- Regression Guard: Gibt es Tests, SLO-Alerts oder Canary-Kriterien, die die Wiederholung verhindern?
- Ownership und Fälligkeit: Klarer Owner und Termin, idealerweise gekoppelt an Risiko/Impact.
Praktische Ergänzung: Ein „Minimum Viable Metrics“-Set für Postmortems
Wenn Sie heute mit einem schlanken, aber starken Set starten wollen, ist dieses Minimum in vielen Umgebungen sofort umsetzbar und liefert schnell Nutzen. Es deckt Impact, Detektion, Diagnose, Mitigation, Recovery und Nachhaltigkeit ab, ohne zu überfrachten.
- Impact: betroffene Requests/Nutzer, SLO-Verletzung (Budget Burn), wichtigste Endpoints/Regionen.
- Detektion: MTTD, Detektionsquelle, Alert Precision (qualitativ: „zu viel Lärm?“).
- Diagnose: TTFH, TTCH, Anzahl Hypothesenwechsel.
- Mitigation: TTM, Mitigation-Effektgröße, Rollback-Notwendigkeit.
- Recovery: Time to Full Recovery, Backlog Drain Time, Rückfälle im Stabilitätsfenster.
- Follow-up: Time to Implement kritischer Actions, Verification Metric pro Top-Action.
Typische Fallstricke beim Ergänzen von Postmortem-Metriken
- Uneinheitliche Definitionen: Wenn „Incident-Beginn“ mal bei erstem Alert, mal bei erstem Nutzerimpact liegt, werden Metriken unbrauchbar.
- Zu viel manuelle Erhebung: Metriken, die nur durch Nachfragen entstehen, werden inkonsistent. Automatisieren Sie, wo möglich.
- Metriken ohne Entscheidung: Wenn eine Zahl keine Konsequenz hat, streichen Sie sie oder koppeln Sie sie an einen Prozess.
- Zu starke Personalisierung: „Wer hat’s gemerkt?“ ist selten hilfreich. Besser: „Welche Signale haben gefehlt?“
- Kein Bezug zur Architektur: Postmortem-Metriken sollten Abhängigkeiten sichtbar machen (DB, Cache, externe API, DNS, Mesh), sonst bleibt die Analyse flach.
Outbound-Quellen für etablierte Rahmenwerke und Best Practices
- Monitoring und Incident-Signale (Google SRE Book)
- SLOs und Error Budgets als Postmortem-Metriken (Google SRE Book)
- OpenTelemetry für standardisierte Observability-Daten
- DORA-Metriken als Kontext für Change-Sicherheit
Cisco Netzwerkdesign, CCNA Support & Packet Tracer Projekte
Cisco Networking • CCNA • Packet Tracer • Network Configuration
Ich biete professionelle Unterstützung im Bereich Cisco Computer Networking, einschließlich CCNA-relevanter Konfigurationen, Netzwerkdesign und komplexer Packet-Tracer-Projekte. Die Lösungen werden praxisnah, strukturiert und nach aktuellen Netzwerkstandards umgesetzt.
Diese Dienstleistung eignet sich für Unternehmen, IT-Teams, Studierende sowie angehende CCNA-Kandidaten, die fundierte Netzwerkstrukturen planen oder bestehende Infrastrukturen optimieren möchten. Finden Sie mich auf Fiverr.
Leistungsumfang:
-
Netzwerkdesign & Topologie-Planung
-
Router- & Switch-Konfiguration (Cisco IOS)
-
VLAN, Inter-VLAN Routing
-
OSPF, RIP, EIGRP (Grundlagen & Implementierung)
-
NAT, ACL, DHCP, DNS-Konfiguration
-
Troubleshooting & Netzwerkoptimierung
-
Packet Tracer Projektentwicklung & Dokumentation
-
CCNA Lern- & Praxisunterstützung
Lieferumfang:
-
Konfigurationsdateien
-
Packet-Tracer-Dateien (.pkt)
-
Netzwerkdokumentation
-
Schritt-für-Schritt-Erklärungen (auf Wunsch)
Arbeitsweise:Strukturiert • Praxisorientiert • Zuverlässig • Technisch fundiert
CTA:
Benötigen Sie professionelle Unterstützung im Cisco Networking oder für ein CCNA-Projekt?
Kontaktieren Sie mich gerne für eine Projektanfrage oder ein unverbindliches Gespräch. Finden Sie mich auf Fiverr.










