Site icon bintorosoft.com

Latenzbudget für Voice/Video: Wie Telcos End-to-End Targets definieren

Ein sauberes Latenzbudget für Voice/Video ist im Telco-Umfeld der zentrale Baustein, um aus „guter Hoffnung“ verlässliche End-to-End Qualität zu machen. Denn Latenz ist kein einzelner Wert, sondern die Summe vieler Teilstrecken: Access-Technologie, Aggregation, Core, Interconnect, Security-Funktionen, Tunneling, Funk/WLAN, plus die Verarbeitung in Endgeräten und Plattformen. Wenn Telcos End-to-End Targets definieren, müssen sie deshalb nicht nur ein Gesamtziel festlegen, sondern dieses Ziel in nachvollziehbare Budgets pro Domäne und pro Engpass zerlegen. Genau hier entsteht die Praxisreife: Latenzbudgets werden so gewählt, dass sie messbar, operativ steuerbar und in Failover-Szenarien weiterhin erreichbar sind. Ein gutes Latenzbudget für Voice/Video berücksichtigt außerdem Jitter und Loss, weil beide direkt mit Queueing, Mikrobursts und Buffering verknüpft sind. Dieser Artikel zeigt, wie Telcos End-to-End Targets pragmatisch definieren, wie Budgets pro Netzdomäne abgeleitet werden und welche Failure Patterns typische Budgetüberschreitungen verursachen.

Was „Latenz“ im Echtzeitkontext bedeutet: One-Way, RTT und wahrgenommene Verzögerung

Bevor Zahlen verteilt werden, muss klar sein, welche Latenz gemeint ist. In Netzen wird häufig RTT (Round Trip Time) gemessen, während Echtzeitdienste stärker auf One-Way-Delay reagieren. Zusätzlich kommt Anwendungs- und Endgeräteverarbeitung hinzu: Codec-Frame-Größe, Jitter-Buffer, Echo-Canceller, Video-Puffer. Ein Telco-Latenzbudget muss daher zwischen Transportlatenz und End-to-End Nutzerlatenz unterscheiden.

Warum Telcos Latenzbudgets brauchen: Von QoS-Policies zu messbaren Targets

QoS priorisiert Knappheit, aber Latenzziele entstehen aus Budgetierung. Ohne Budget kann ein Netz zwar „priorisieren“, aber niemand weiß, ob die Summe der Teilstrecken das Serviceziel überhaupt zulässt. Latenzbudgets schaffen drei Vorteile: Erstens werden Ziele in Domänen heruntergebrochen (Access/Aggregation/Core/Interconnect). Zweitens lassen sich Änderungen bewerten („passt diese neue Service-Funktion noch ins Budget?“). Drittens werden Mess- und Alarmgrenzen sinnvoll gesetzt (Perzentile, Zeitfenster, Fehlerbudgets).

Voice vs. Video: Unterschiedliche Anforderungen, unterschiedliche Budgets

Voice ist extrem latenz- und jitterkritisch, während Video – je nach Typ – unterschiedliche Toleranzen hat. Interaktives Video (Videokonferenzen) benötigt ebenfalls niedrige Latenz, toleriert aber oft etwas mehr als Voice, solange Audio stabil bleibt. Streaming-Video ist weniger interaktiv, dafür throughput- und loss-sensitiv; hier ist Latenz weniger kritisch, solange Buffer ausreichend sind. Ein Telco-Latenzbudget sollte daher mindestens zwischen Voice, interaktivem Video und nicht-interaktivem Video unterscheiden.

Der Telco-Ansatz: Gesamtziel definieren und in Domänenbudgets zerlegen

Ein praktisches Vorgehen ist zweistufig: Zuerst wird ein End-to-End Ziel für die Serviceart festgelegt (z. B. Voice „interaktiv“). Danach wird das Ziel in Budgets pro Domäne aufgeteilt. Dabei werden „fixe“ Komponenten (Propagation, notwendige Verarbeitung) und „variable“ Komponenten (Queueing) getrennt behandelt. Besonders wichtig: Variable Latenz muss über QoS und Shaping kontrollierbar sein, sonst kippt das Budget in Busy Hour oder bei Mikrobursts.

Domänen, die typischerweise im Latenzbudget berücksichtigt werden

Budgetlogik: Fixe vs. variable Latenz und warum Jitter dazugehört

Für ein belastbares Budget ist die Trennung zentral: Fixe Latenz entsteht durch Physik (Glasfaserstrecke, Funk-Layer) und notwendige Verarbeitung. Variable Latenz entsteht durch Warteschlangen und ist der Teil, den QoS direkt beeinflusst. In Echtzeitdiensten ist variable Latenz gleichbedeutend mit Jitter-Risiko. Deshalb wird in Telco-Designs die Queueing-Komponente streng budgetiert und über Shaping, Queue-Limits und Priorisierung kontrolliert.

Messstrategie: Wie Telcos Latenzbudgets verifizieren

Ein Budget ist nur dann wertvoll, wenn es verifiziert werden kann. Telcos kombinieren dafür mehrere Messarten: aktive Messungen (synthetische Probes), passive Telemetrie (Interface/Queue-Statistiken) und – wo verfügbar – applikationsnahe Metriken (z. B. RTCP bei RTP). Für Budgetnachweise sind Perzentile und kurze Zeitfenster entscheidend, weil Mittelwerte Peaks verdecken. Eine typische Praxis ist die Bewertung in 5-Minuten-Intervallen mit p95/p99, ergänzt durch Monats-Fehlerbudgets.

Budgetierung pro Klasse: Warum Voice und Video getrennte „Delay Budgets“ brauchen

In der QoS-Architektur haben Voice und Video unterschiedliche Queueing-Strategien. Voice läuft typischerweise in einer Low-Latency Queue (LLQ) und muss strikt limitiert werden, damit sie nicht andere Klassen verdrängt. Video gehört in eine gewichtete Echtzeitklasse, die Mindestbandbreite bekommt, aber keine absolute Priorität. Daraus folgt: Auch die Delay Budgets pro Klasse unterscheiden sich. Voice erhält die strengsten Queue-Delay Ziele; Video erhält stabile, aber etwas großzügigere Ziele, weil Bandbreite und Burstiness höher sind.

Failure Patterns: Warum Budgets reißen – und wie man die Ursache domänenscharf findet

Budgetüberschreitungen sind selten „mysteriös“. Meist lassen sie sich einem wiederkehrenden Muster zuordnen: Congestion an einem nicht abgedeckten Engpass, fehlendes Shaping am WAN-Edge, Mikrobursts in Aggregation, zu große Buffers (Bufferbloat), Overlay-Markings, die im Tunnel verschwinden, oder Failover auf einen Pfad mit schlechteren Eigenschaften. Ein gutes Budgetmodell hilft dabei, nicht nur zu sehen, dass Latenz steigt, sondern wo und warum.

Pragmatische Vorgehensweise: So definiert man End-to-End Targets ohne „Zahlenspiel“

Telcos, die Latenzbudgets erfolgreich etablieren, gehen pragmatisch vor: Sie definieren zuerst den Service und die Messstrecke (Edge-to-Edge, Standort-zu-Cloud, In-Domain). Dann messen sie die fixe Grundlatenz im Normalpfad. Anschließend reservieren sie ein kontrollierbares Budget für Queueing, getrennt pro Klasse. Danach werden die kritischen Engpässe identifiziert und QoS so platziert, dass genau dort Queueing kontrolliert wird (Shaping am Edge, HQoS im Access, konsistente Queue-Limits). Schließlich werden SLOs in Perzentilen formuliert und mit Fehlerbudgets hinterlegt, sodass Betrieb und Change-Management realistisch bleiben.

Rezertifizierung: Budgets müssen mit dem Netz wachsen

Latenzbudgets sind kein einmaliges Projekt. Traffic-Profile ändern sich, Plattformen wechseln, Pfade werden optimiert, und neue Dienste kommen hinzu. Deshalb sollten Telcos Budgets regelmäßig rezertifizieren: Stimmen die Mappings und Trust Boundaries noch? Entspricht die Queueing-Strategie dem aktuellen Traffic? Haben Failover-Pfade ausreichend Headroom? Und sind die Messmethoden stabil geblieben? Eine rezertifizierte Budgetlogik verhindert, dass „historisch gewachsene“ Annahmen zu wiederkehrenden Qualitätsproblemen führen.

Exit mobile version