Asymmetrisches Routing in der Cloud: Häufige Ursachen + Detection

Asymmetrisches Routing in der Cloud bezeichnet eine Situation, in der Hin- und Rückweg eines Netzwerkflusses unterschiedliche Pfade nehmen. Der Client sendet Pakete über Route A, die Antwort des Servers kommt jedoch über Route B zurück – häufig über eine andere Firewall, ein anderes Gateway, eine andere Zone oder sogar eine andere Verbindung (VPN/Direct Connect). In…

VPC Flow Logs/VNet Flow Logs lesen, um blockierten Traffic zu finden

VPC Flow Logs (AWS) und VNet Flow Logs (Azure) gehören zu den zuverlässigsten Datenquellen, wenn Sie blockierten Traffic in der Cloud finden möchten – vorausgesetzt, Sie wissen, wie Sie die Felder korrekt interpretieren und wie Sie aus Rohdaten eine belastbare Diagnose ableiten. Viele On-Calls scheitern nicht daran, dass Flow Logs fehlen, sondern daran, dass Teams…

MTU in Cloud-VPN/Tunneln: Ursache für „Small works, large fails“

MTU in Cloud-VPN/Tunneln ist eine der häufigsten Ursachen für das klassische Fehlerbild „Small works, large fails“: Kleine Pakete (z. B. Ping, kurze API-Requests, kleine DNS-Antworten) funktionieren, während größere Daten (Datei-Uploads, TLS-Handshakes mit vielen Extensions, große HTTP-Responses, Datenbankabfragen) sporadisch hängen bleiben, extrem langsam werden oder timeouten. In Cloud-Umgebungen ist dieses Problem besonders verbreitet, weil zusätzliche Encapsulation-Schichten…

Blast Radius in der Cloud messen (Fault Domains): Praxisleitfaden

„Blast Radius in der Cloud messen“ ist eine Kernkompetenz für SRE, Plattformteams und SecOps, weil sie entscheidet, ob ein einzelner Fehler ein lokales Ärgernis bleibt oder zu einem großflächigen Ausfall eskaliert. In Cloud-Umgebungen ist der Blast Radius selten zufällig: Er folgt Fault Domains wie Region, Availability Zone, Subnet, Cluster, Node Pool, Load Balancer, Control Plane…

Readiness-Review-Checkliste vor dem Launch: OSI-basiert

Eine Readiness-Review-Checkliste vor dem Launch entscheidet oft darüber, ob ein Go-Live ruhig verläuft oder ob ein vermeidbarer Incident das Vertrauen von Kunden und Stakeholdern beschädigt. In der Praxis scheitern Launches selten an „einer großen Sache“, sondern an vielen kleinen Lücken: fehlende Observability, unklare Rollback-Mechanismen, falsche Timeouts, nicht getestete DNS/TLS-Pfade, unerwartete Limits (Quotas), unzureichende Rate-Limits oder…

„Second Outage“ nach Recovery vermeiden (SRE Best Practices)

„Second Outage“ nach Recovery vermeiden ist eine der wichtigsten SRE-Disziplinen, weil der gefährlichste Moment eines Incidents oft nicht der Ausfall selbst ist, sondern die Phase danach: Sobald Systeme wieder „grün“ erscheinen, steigt der Druck, Traffic zurückzuschalten, Backlogs abzuarbeiten, Deployments nachzuholen und Business-Funktionalität vollständig zu reaktivieren. Genau dann passieren Folgeausfälle – etwa durch Retry-Stürme, Cache-Warmups, überlastete…

Observability für DNS/TLS/Ingress: Hidden Layers, die SLOs zerstören

Observability für DNS/TLS/Ingress ist ein unterschätzter Erfolgsfaktor für zuverlässige Systeme, weil genau diese „Hidden Layers“ häufig außerhalb des Applikations-Stacks liegen und dennoch direkt die Nutzererfahrung bestimmen. Viele Teams messen sauber auf Layer 7: Request-Latenz, 5xx-Rate, P95/P99, Traces. Trotzdem werden SLOs gerissen – nicht wegen der Business-Logik, sondern weil davor etwas klemmt: DNS-Resolution ist langsam oder…

P95 vs. P99 Latenz: Warum Tail Latency für SRE entscheidend ist

P95 vs. P99 Latenz ist eine der wichtigsten Diskussionen im SRE-Alltag, weil sie direkt bestimmt, ob ein System „für die meisten“ schnell wirkt oder ob es auch unter Last für nahezu alle Nutzer verlässlich bleibt. Durchschnittswerte oder sogar P50 (Median) können hervorragend aussehen, während einzelne Prozentpunkte der Requests so langsam sind, dass sie Supportfälle auslösen,…

Gesunde On-Call-KPIs: Noise reduzieren und systemische Fixes fördern

Gesunde On-Call-KPIs sind ein wirksames Steuerungsinstrument für SRE-, Plattform- und Betriebsteams, wenn sie nicht als „Performance-Messung von Menschen“, sondern als Gesundheitsindikatoren für Systeme und Prozesse verstanden werden. In vielen Organisationen ist On-Call jedoch ein Dauerstress: Pager-Duty-Noise, wiederkehrende Alarme ohne klare Aktion, zu viele Eskalationen und ein permanentes Gefühl, „hinterherzulaufen“. Das Problem ist selten fehlender Einsatz,…

OSI-basiertes Incident-Runbook-Template (Copy-Paste-ready)

Ein OSI-basiertes Incident-Runbook-Template ist für SRE-, SecOps- und Plattformteams besonders wertvoll, weil es in Stresssituationen eine klare Reihenfolge vorgibt: erst Konnektivität und Transport verifizieren, dann TLS/Session, dann HTTP/Anwendung, und dabei jederzeit Hypothesen sauber dokumentieren. Das Hauptkeyword „OSI-basiertes Incident-Runbook-Template“ steht für einen Ansatz, der die häufigste On-Call-Falle verhindert: sofort in Applikationslogs zu springen, obwohl das Problem…