MLAG/vPC Troubleshooting: Split-Brain, Peer-Link und Consistency Checks

MLAG/vPC Troubleshooting ist im Rechenzentrum eine der wichtigsten Disziplinen, weil Multi-Chassis Link Aggregation (MLAG) – je nach Hersteller als vPC, MC-LAG, VLT, IRF, StackWise Virtual oder ähnlich bezeichnet – genau dort sitzt, wo viele kritische Verbindungen enden: Server-Bonds, Uplinks, Border-Leaves, Storage und Load-Balancer. Im Normalbetrieb ist MLAG unsichtbar und wirkt „einfach stabil“. Im Fehlerfall ist…

SNMP Counter richtig lesen: Discards vs. Drops vs. Errors

SNMP Counter richtig lesen ist eine unterschätzte Kernkompetenz im Netzwerkbetrieb: Viele Incidents lassen sich binnen Minuten einordnen, wenn Sie Discards vs. Drops vs. Errors sauber unterscheiden und die richtigen Interface-Zähler im Kontext interpretieren. Gleichzeitig entstehen hier die meisten Fehlalarme: „Input errors steigen, also ist das Kabel kaputt“ – dabei sind es in Wirklichkeit Output drops…

STP vs. MLAG: Wenn Topologien kollidieren

STP vs. MLAG ist eine der klassischen „Topologie-Kollisionen“ im Rechenzentrum und im Campus – und gleichzeitig eine der häufigsten Ursachen für schwer erklärbare Layer-2-Störungen. Spanning Tree Protocol (STP) existiert, um Loops in redundanten Layer-2-Topologien zu verhindern. MLAG (Multi-Chassis Link Aggregation) – je nach Hersteller vPC, MC-LAG, VLT, IRF, StackWise Virtual oder ähnlich genannt – existiert,…

Syslog Triage: High-Signal Events schnell erkennen

Syslog Triage ist eine der wirkungsvollsten Fähigkeiten im Netzwerkbetrieb: Wer in Sekunden erkennt, welche Meldungen „High Signal“ sind, verkürzt die Mean Time to Detect (MTTD) und damit die MTTR dramatisch. Gleichzeitig ist Syslog in vielen Umgebungen ein Lärmproblem: Tausende Events pro Minute, wechselnde Message-Formate, unklare Severity-Levels, fehlende Korrelation und Geräte, die bei jeder Link-Neuverhandlung ganze…

Time Sync Issues: NTP/PTP Drift als versteckte Fehlerquelle

Time Sync Issues gehören zu den am häufigsten übersehenen Ursachen für „mysteriöse“ Störungen in IT- und Computernetzwerken. Wenn NTP/PTP Drift unbemerkt wächst, wirkt das zunächst harmlos: Logs sehen nur „komisch“ aus, Metriken passen nicht zusammen, einzelne Requests scheinen „aus der Zeit zu fallen“. Doch in modernen verteilten Systemen ist Zeit ein fundamentales Koordinatensystem. Ohne verlässliche…

Observability Correlation: Logs + Metrics + Traces für Netzwerk-RCA

Observability Correlation – also die gezielte Korrelation von Logs, Metrics und Traces – ist heute eine der schnellsten Methoden, um Netzwerk-RCA (Root Cause Analysis) belastbar zu machen. In klassischen Netzwerkteams wurden Störungen häufig mit punktuellen Indikatoren bearbeitet: Ein Interface zeigt Errors, ein BGP-Neighbor flappt, ein Load Balancer liefert 502. Moderne Systeme sind jedoch verteilt, dynamisch…

“Nichts ändert sich”: Troubleshooting bei intermittierenden Fehlern

Troubleshooting bei intermittierenden Fehlern ist die Disziplin, in der Netzwerkteams am häufigsten Zeit verlieren – nicht wegen fehlender Kompetenz, sondern wegen fehlender Sichtbarkeit. Der Satz „Nichts ändert sich“ taucht in jedem Incident irgendwann auf: keine neuen Deployments, keine Konfig-Änderungen, keine Interface-Downs, keine auffälligen Grafiken. Und trotzdem melden Nutzer sporadische Timeouts, kurze Audioaussetzer, „mal geht’s, mal…

Flapping Links: Root Cause zwischen Optics, LACP und Bugs

Flapping Links sind eine der teuersten Störungsklassen im Netzwerkbetrieb, weil sie selten „hart“ ausfallen, sondern in kurzen Intervallen hoch und runter gehen – mit maximaler Wirkung auf Routing, LACP-Bundles, STP, ECMP und damit auf Applikationslatenz und Verfügbarkeit. Genau deshalb ist die Root Cause Analysis bei Link Flaps oft schwieriger als bei einem klaren Down: Wenn…

High CPU auf Netzwerkgeräten: Control Plane Overload nachweisen

High CPU auf Netzwerkgeräten ist eines der tückischsten Fehlerbilder im Betrieb, weil es sich selten wie ein „klassischer“ Link-Ausfall anfühlt. Stattdessen sehen Sie Symptome, die überall und nirgendwo auftreten: BGP-Sessions flappen, OSPF-Adjazenzen werden instabil, SNMP/Telemetry hat Lücken, CLI reagiert zäh, einzelne Flows timeouten, ARP/ND-Auflösung wird langsam, und manchmal wirkt das Gerät plötzlich „wie eingefroren“. In…

Proxy Troubleshooting: X-Forwarded-For, SNI, HTTP/2 Edge Cases

Proxy Troubleshooting ist eine eigene Welt im Netzwerkbetrieb, weil Proxies, Reverse Proxies, CDNs und API Gateways an der Schnittstelle zwischen Transport (TCP/TLS) und Anwendung (HTTP) sitzen. Viele Incidents sehen daher „wie Netzwerk“ aus, sind aber in Wahrheit Header-, TLS- oder Protokollthemen: Die Client-IP ist im Backend plötzlich immer dieselbe, Geo-Blocking greift falsch, Rate-Limits treffen Unschuldige,…