VoIP Troubleshooting: SIP/RTP, One-Way Audio und Jitter Ursachen

VoIP Troubleshooting ist eine der wenigen Netzwerkdisziplinen, in der kleine Abweichungen sofort hörbar werden: Ein kurzer Paketverlust wird zu Knacken, Jitter wird zu „Roboterstimme“, Latenz macht Gespräche unangenehm, und ein scheinbar harmloser NAT- oder Firewall-Timeout führt zu One-Way Audio. Gleichzeitig besteht VoIP aus zwei Welten, die Sie im Incident strikt trennen müssen: SIP/SDP als Signalisierung…

Video Conferencing Issues: QoS, NAT, TURN und Path Debugging

Video Conferencing Issues gehören zu den häufigsten und zugleich frustrierendsten Störungen in Unternehmensnetzen: Bild friert ein, Ton wird robotisch, Teilnehmer „klingen blechern“, Screen Sharing ruckelt, oder Meetings funktionieren im Büro, aber nicht im Homeoffice. Das Problem ist selten „die Bandbreite“ allein, sondern meist eine Mischung aus QoS-Fehlkalibrierung, NAT- und Firewall-Nebenwirkungen sowie Pfadunterschieden zwischen UDP und…

Change-Induced Outages: Wie Sie Netzwerkchanges sicher debuggen

Change-Induced Outages sind die teuerste und gleichzeitig vermeidbarste Kategorie von Netzwerkstörungen. Gemeint sind Ausfälle, die direkt nach einem Change auftreten – egal ob es sich um ein vermeintlich kleines ACL-Update, ein Routing-Policy-Tuning, einen Firmware-Rollout, eine MTU-Anpassung oder eine Änderung an VLANs, Trunks, MLAG oder BGP handelt. In der Praxis ist der schwierigste Teil nicht das…

“It worked before”: Konfig-Drift und Diff-Analysen im Netzwerk

„It worked before“ ist einer der häufigsten und zugleich unerquicklichsten Sätze im Netzwerkbetrieb. Er bedeutet meist nicht, dass das Netzwerk „plötzlich“ kaputt gegangen ist, sondern dass sich der Normalzustand schleichend verändert hat: Konfig-Drift. Darunter versteht man Abweichungen zwischen dem erwarteten (dokumentierten oder versionierten) Konfigurationszustand und dem tatsächlich laufenden Zustand auf Geräten. Diese Abweichungen entstehen durch…

Configuration Rollback Strategien: Schnell zurück ohne Folgeschäden

Configuration Rollback Strategien sind im Netzwerkbetrieb der Unterschied zwischen einem kurzen Zwischenfall und einem mehrstündigen Ausfall. Sobald ein Change unerwartete Auswirkungen hat, steht das Team unter Druck: schnell zurück, Service stabilisieren, keine weiteren Systeme beschädigen. Genau hier passieren die typischen Folgeschäden: halbherzige Rollbacks, die nur Teile der Konfiguration zurückdrehen; Rollbacks, die State (Sessions, ARP/ND, Routing)…

Vendor Bugs erkennen: Reproduzierbarkeit, Evidence und Support Cases

Vendor Bugs erkennen gehört zu den anspruchsvollsten Aufgaben im Netzwerkbetrieb. Nicht, weil Hersteller-Bugs selten wären, sondern weil ihre Symptome oft genauso aussehen wie „klassische“ Ursachen: Paketverlust, hohe Latenz, BGP-Flaps, MAC-Flapping, Control-Plane-Overload oder sporadische Drops. Der Unterschied ist, dass Sie bei einem Vendor Bug (Hersteller-Bug) nicht nur die technische Ursache finden müssen, sondern auch beweisen müssen,…

Lab-to-Prod Debugging: Containerlab/EVE-NG zur Fehlerreproduktion

Lab-to-Prod Debugging ist eine der effektivsten Methoden, um komplexe Netzwerkfehler zuverlässig zu verstehen, zu beweisen und nachhaltig zu beheben. Gemeint ist die Fähigkeit, ein Problem aus der Produktionsumgebung in ein kontrolliertes Labor zu übertragen, dort reproduzierbar zu machen und anschließend Änderungen risikoarm zu validieren, bevor sie wieder in Produktion gehen. Genau hier liefern moderne Lab-Plattformen…

Batfish & Intent Validation: Policies testen, bevor es brennt

Batfish & Intent Validation sind zwei Begriffe, die in modernen Netzwerkteams immer dann relevant werden, wenn aus „kleinen Changes“ plötzlich große Incidents werden. Denn viele Ausfälle entstehen nicht durch Hardwaredefekte, sondern durch unbeabsichtigte Policy-Effekte: Ein Prefix-Filter ist zu strikt, eine Route-Map matcht in der falschen Reihenfolge, eine ACL blockiert Rückverkehr, oder ein NAT-/Firewall-Change erzeugt One-Way-Symptome.…

Chaos Engineering im Netzwerk: Fehler injizieren und Diagnostik üben

Chaos Engineering im Netzwerk ist die kontrollierte Kunst, Fehler absichtlich zu erzeugen, um Stabilität, Observability und Reaktionsfähigkeit zu verbessern. Statt darauf zu warten, bis ein echter Incident nachts um 03:00 Uhr eintritt, injizieren Sie gezielt Störungen wie Paketverlust, Latenz, Jitter, Link-Flaps oder Routing-Anomalien – in einem sicheren Rahmen, mit klaren Abbruchkriterien und messbaren Erwartungen. Der…

RCA auf Expertenniveau: Ursachen, Faktoren, Maßnahmen sauber dokumentieren

RCA auf Expertenniveau (Root Cause Analysis) ist mehr als eine Pflichtübung nach einem Incident. Eine gute RCA ist ein technisches Dokument, das Ursache, beitragende Faktoren und wirksame Maßnahmen so sauber beschreibt, dass das Team daraus dauerhaft lernt, Wiederholungen verhindert und Entscheidungen gegenüber Stakeholdern begründen kann. Gerade in Netzwerken ist das entscheidend, weil Störungen selten monokausal…