Latenz, Jitter und Paketverlust sind die drei wichtigsten Qualitätsgrößen, wenn es darum geht, stabile QoS-Ziele für Voice & Video festzulegen. Während klassische Datenanwendungen kurze Verzögerungen oder Retransmits meist verzeihen, reagieren Echtzeitdienste sofort auf Schwankungen im Transport: Sprache klingt abgehackt oder „robotisch“, Video ruckelt, friert ein oder fällt auf eine niedrigere Auflösung zurück. Genau deshalb ist es im Netzwerkdesign entscheidend, nicht nur „QoS einzuschalten“, sondern messbare Zielwerte für Latenz, Jitter und Paketverlust zu definieren – abgestimmt auf den Dienst (VoIP, WebRTC, Unified Communications, IPTV, Streaming) und auf die Netzarchitektur (LAN, WAN, Telco-Backbone, Mobilfunk). Dieser Artikel erklärt die drei Kennzahlen leicht verständlich, zeigt typische Zielbereiche für Voice & Video, erläutert den Zusammenhang zwischen QoS (Netzsteuerung) und QoE (Nutzererlebnis) und gibt praktische Regeln, wie Sie in Ihrem Netz realistische, überprüfbare QoS-Ziele definieren, überwachen und bei Engpässen durchsetzen.
Warum genau diese drei Kennzahlen entscheidend sind
Im Kern geht es bei Echtzeitkommunikation um Timing. Voice- und interaktive Video-Streams erzeugen kontinuierliche Pakete in kurzen Intervallen. Kommen diese Pakete nicht rechtzeitig oder nicht gleichmäßig an, muss der Empfänger puffern oder „Lücken“ überbrücken. Das führt zu hör- und sichtbaren Störungen.
- Latenz beschreibt die Verzögerung – also wie lange ein Paket von A nach B braucht.
- Jitter beschreibt die Schwankung dieser Verzögerung – also wie ungleichmäßig Pakete ankommen.
- Paketverlust beschreibt, wie viele Pakete unterwegs fehlen – durch Drops, Fehler oder Überlast.
QoS-Ziele helfen, diese Größen im normalen Betrieb und unter Last kontrollierbar zu halten. Besonders wichtig: Latenz, Jitter und Verlust hängen zusammen. Ein Netz kann z. B. „wenig Verlust“ haben, aber durch übergroße Puffer extremen Jitter erzeugen. Oder es hat geringe Latenz, aber aggressive Policer verursachen Drops – was Voice & Video unmittelbar verschlechtert.
Latenz: Was sie bedeutet und warum „Round Trip“ wichtiger ist als ein Einzelwert
Latenz ist die Zeit zwischen Senden und Empfangen eines Pakets. Für Echtzeit ist dabei nicht nur die einfache Laufzeit relevant, sondern auch die Gesamtverzögerung im Gespräch. Bei bidirektionaler Kommunikation (Telefonie, Video Calls) spielt insbesondere die Round-Trip-Zeit (RTT) eine große Rolle, weil sie die Interaktivität bestimmt.
Wo Latenz entsteht
- Propagation Delay: Physikalische Laufzeit (z. B. Glasfaserstrecke).
- Serialization Delay: Zeit, um ein Paket auf den Link „herauszuschieben“ (bei langsamen Links deutlich spürbar).
- Processing Delay: Verarbeitung in Geräten (Routing, ACLs, Verschlüsselung, NAT, SBC-Funktionen).
- Queueing Delay: Wartezeit in Warteschlangen bei Engpässen – oft der größte und variabelste Anteil.
In der Praxis ist Queueing Delay der Hebel, den QoS am stärksten beeinflusst: Gute QoS-Profile halten Echtzeitpakete aus vollen Best-Effort-Queues heraus.
Typische Latenz-Zielbereiche für Voice & Video
Als praxisnahe Orientierung (je nach Plattform, Codec, Netztyp und Erwartung):
- Voice (VoIP/UC-Audio): möglichst niedrig; besonders wichtig ist, dass die Verzögerung stabil bleibt und nicht stark schwankt.
- Interaktives Video (Meetings/WebRTC): ebenfalls niedrige Latenz, weil Bild und Ton synchron bleiben und Interaktion flüssig wirkt.
- Streaming/OTT: deutlich toleranter, da Puffern eingeplant ist; hier zählt eher Durchsatzstabilität als minimale Latenz.
Für die Zieldefinition ist es hilfreich, Latenz nicht nur als „Durchschnitt“ zu betrachten, sondern auch als Worst-Case unter Last. Ein Netz, das im Idle-Zustand gut aussieht, kann bei Peak-Last plötzlich stark an Latenz verlieren – genau dann braucht man QoS.
Jitter: Warum Schwankungen schlimmer sind als ein konstanter Delay
Jitter beschreibt die Variation der Paketlaufzeit. Selbst wenn die durchschnittliche Latenz akzeptabel ist, kann hoher Jitter ein Gespräch ruinieren. Der Grund: Empfänger müssen einen Jitter-Buffer nutzen, um Schwankungen auszugleichen. Wird der Buffer zu klein, entstehen Aussetzer. Wird er zu groß, steigt die Verzögerung – die Interaktivität leidet.
Typische Jitter-Ursachen
- Congestion und wechselnde Queue-Tiefe: Pakete warten mal kurz, mal lang.
- Microbursts: Kurze Lastspitzen füllen Puffer schlagartig.
- Asymmetrische Pfade: Hin- und Rückrichtung verhalten sich unterschiedlich.
- Variabler Funkzugang: Besonders im Mobilfunk und WLAN schwanken Übertragungsbedingungen.
- Traffic Shaping/Policing: Falsch eingesetzt kann es Bursts erzeugen oder Drops triggern, was indirekt Jitter verstärkt.
Jitter-Ziele für Voice & Video
Für Echtzeit gilt: Je geringer, desto besser – und vor allem: je stabiler, desto besser. Praxisorientiert lassen sich folgende Leitlinien nutzen:
- Voice: sehr niedriger Jitter erforderlich, weil Sprachpakete klein und häufig sind.
- Interaktives Video: ebenfalls niedriger Jitter, da sonst Bild und Ton unruhig wirken oder Frames ausfallen.
- Streaming: Jitter ist weniger kritisch, solange der Puffer gefüllt bleibt.
In der Zieldefinition ist sinnvoll, Jitter als Grenzwert für die Echtzeitklasse festzulegen und zusätzlich die zulässige Queueing-Latenz zu begrenzen. So vermeiden Sie, dass große Puffer zwar Drops verhindern, aber die Echtzeitkommunikation durch Delay-Spitzen verschlechtern.
Paketverlust: Der sichtbarste Killer von Echtzeitqualität
Paketverlust bedeutet, dass Pakete nicht am Ziel ankommen. Bei TCP können Pakete erneut übertragen werden, was zu Durchsatzverlust und Verzögerung führt. Bei RTP-basierten Echtzeitströmen (Voice, viele UC-Plattformen) gibt es Retransmits entweder gar nicht oder nur in begrenzten Varianten – verlorene Pakete sind dann meist endgültig verloren.
Warum Verlust bei Voice sofort auffällt
- Keine Zeit für Retransmits: Sprache muss „jetzt“ ankommen, nicht später.
- Konstante Paketintervalle: Schon kleine Lücken wirken wie Knacken, Aussetzer oder Roboterstimmen.
- Begrenzte Fehlertoleranz: Packet Loss Concealment kann einiges kaschieren, aber nicht dauerhaft.
Warum Verlust bei Video zu Rucklern und Freezes führt
- Fehlende Referenzframes: Verlust kann ganze Frame-Gruppen beschädigen.
- Adaptation: Plattformen reduzieren Bitrate/Framerate, wenn Verlust steigt.
- Buffering: Bei Streaming führen Retransmits zu Nachladen und Buffering.
Paketverlust-Ziele für Voice & Video
Als praxisnahe Designregel: In Echtzeitklassen sollte Paketverlust praktisch nicht auftreten. Das ist kein „Luxus“, sondern ein Planungsziel. Drops in einer Voice-Queue sind ein Alarmzeichen für falsche Dimensionierung, falsche Priorisierung oder einen Engpass ohne korrektes Shaping/Queueing.
QoS-Ziele je nach Dienst: Voice, Video Calls, IPTV, Streaming
Ein häufiger Fehler ist, für „Video“ nur eine Zieldefinition zu verwenden. In der Praxis unterscheiden sich die Anforderungen stark.
- VoIP/UC-Audio: niedrigste Latenz, minimaler Jitter, nahezu kein Verlust; höchste Schutzklasse.
- Interaktives Video (Meetings/WebRTC): niedrige Latenz und Jitter, niedriger Verlust; bevorzugt, aber nicht strict-priority wie Audio.
- IPTV/Managed Video: sehr niedriger Verlust, stabiler Durchsatz; Jitter ist relevant, aber oft über Puffer konzeptionell abgefedert.
- OTT-Streaming: Durchsatzstabilität und geringe Drop-Cluster; Latenz ist weniger wichtig, sofern Puffer gefüllt bleibt.
Für Telcos und Enterprise-Backbones ist daraus die Standardlogik abgeleitet: Audio strikt schützen, Video bevorzugen aber kontrollieren, Streaming fair behandeln und Background bewusst niedriger priorisieren.
Wie Sie realistische QoS-Ziele definieren: Von „Wunschwerten“ zu messbaren SLOs
QoS-Ziele sollten nicht nur „Richtwerte“ sein, sondern als Service-Level-Objectives (SLOs) formuliert werden, die Sie messen und im Betrieb überwachen können. Dazu gehören Grenzwerte und Messmethoden.
- Grenzwerte pro Klasse: maximale Latenz/Jitter, zulässiger Paketverlust, maximale Queueing Delay.
- Messpunktdefinition: Wo wird gemessen (Access, Edge, Core, Interconnect)?
- Zeiträume: Durchschnitt allein reicht nicht; Peak-Zeiten und Perzentile sind sinnvoll.
- Korrelationsfähigkeit: QoS-Metriken mit QoE (z. B. Call-Analytics) zusammen betrachten.
Ein praxistauglicher Ansatz ist, pro Echtzeitklasse „No-Drop“ als Ziel zu definieren und Latenz/Jitter über Engpass-Links aktiv zu überwachen. Damit erkennen Sie frühzeitig, ob Kapazität oder Policy nachjustiert werden muss.
QoS-Mechanismen, die diese Ziele erreichbar machen
QoS-Ziele sind nur erreichbar, wenn das Netz an Engpässen richtig reagiert. Die wichtigsten Mechanismen, die direkt auf Latenz, Jitter und Verlust wirken, sind:
- Classification & Marking: Voice/Video korrekt erkennen und markiert transportieren (z. B. DSCP).
- Queueing: getrennte Warteschlangen pro Klasse, damit Best Effort Echtzeit nicht blockiert.
- Scheduling: Low-Latency-Behandlung für Audio; gewichtete Verfahren für Video und Business.
- Shaping: Traffic glätten, Microbursts reduzieren, Drop-Spitzen vermeiden.
- Policing: Profile durchsetzen, aber Echtzeit nicht durch harte Drops zerstören.
Ein zentraler Praxispunkt: Viele „Jitter-Probleme“ sind eigentlich Queueing-Probleme. Wenn Best Effort große Puffer füllt, steigen Latenz und Jitter. QoS muss daher Queueing Delay aktiv begrenzen, nicht nur Paketverlust.
Bufferbloat und Microbursts: Warum „weniger Verlust“ manchmal schlechter ist
Es klingt kontraintuitiv, aber: Ein Netz mit kaum Paketverlust kann trotzdem schlechte Echtzeitqualität liefern – wenn es Verluste durch übergroße Puffer vermeidet. Dann steigen Latenz und Jitter an, und Audio/Video leiden trotz „guter“ Loss-Statistiken. Dieses Phänomen wird häufig als Bufferbloat beschrieben.
- Bufferbloat: große Puffer halten Pakete fest, Latenzspitzen entstehen.
- Microbursts: kurze Lastspitzen füllen Puffer plötzlich, Echtzeitpakete geraten in Wartezeiten.
- Folge: Jitter steigt, Plattformen reagieren mit Quality-Downshift, Audio wird instabil.
Für QoS-Ziele bedeutet das: Sie brauchen nicht nur „Loss-Ziele“, sondern auch klare Ziele für maximale Queueing-Verzögerung, insbesondere in Echtzeit- und interaktiven Klassen.
Messung in der Praxis: So erfassen Sie Latenz, Jitter und Verlust sinnvoll
Ein QoS-Ziel ist nur so gut wie die Messung. In professionellen Umgebungen kombinieren Sie passive und aktive Messmethoden.
- Passive Netzmetriken: Queue-Drops, Queue-Depth, Interface-Statistiken, Policer-Hits, Shaping-Rate.
- Aktive Messungen: synthetische Jitter-/Loss-Tests (UDP), Round-Trip-Checks, Pfadvergleiche.
- Applikationsnahe Daten: RTP/RTCP-Reports, Call-Analytics, QoE-Indikatoren (Freezes, Bitrate-Switches).
In Telco-Backbones und WANs lohnt sich eine klare Messhierarchie: Engpass-Links priorisieren, Perzentile betrachten und Anomalien (Drops in Echtzeitklassen) sofort alarmieren.
Praktische Regeln: QoS-Ziele für Voice & Video sauber formulieren
- Voice bekommt die strengsten Ziele: Audio ist klein, aber sensibel. Es verdient die höchste Schutzklasse.
- Video getrennt betrachten: Interaktiv vs. Streaming unterscheiden; interaktiv braucht niedrige Latenz/Jitter, Streaming eher stabile Durchsatzfenster.
- „No Drops“ als Designziel für Echtzeit: Drops in der Voice-Klasse sind ein klares Problemzeichen.
- Queueing Delay begrenzen: Nicht nur Loss messen, sondern Warteschlangenzeit kontrollieren.
- Shaping vor Drop: Wo möglich, Traffic glätten statt harte Policer auf Medienverkehr.
- Perzentile statt Durchschnitt: QoS bricht oft in Peaks; 95./99. Perzentil ist aussagekräftiger.
- QoS und QoE korrelieren: Nutzerwahrnehmung (Audioaussetzer, Freeze) muss mit Netzmetriken erklärbar sein.
Typische Zielkonflikte und wie Sie sie im Design lösen
- Wenig Loss vs. niedrige Latenz: Große Puffer senken Loss, erhöhen aber Latenz/Jitter. Lösung: Queue-Limits und sauberes Scheduling.
- Video-Bandbreite vs. Audio-Stabilität: Video kann Audio verdrängen. Lösung: getrennte Klassen, Audio strict-priority mit Limit, Video gewichtet.
- Policing vs. Echtzeitqualität: Policer erzeugen Drops. Lösung: Profile realistisch dimensionieren, Remarking nutzen, Shaping am Egress.
- End-to-End Konsistenz: Markierungen verschwinden an Übergängen. Lösung: Mapping/Trust Boundary standardisieren und testen.
Häufige Fragen zu QoS-Zielen für Echtzeitdienste
Reicht es, nur Paketverlust zu überwachen?
Nein. Für Voice & Video sind Latenz und Jitter mindestens genauso wichtig. Ein Netz kann fast ohne Verlust arbeiten, aber durch Bufferbloat so viel Jitter erzeugen, dass Gespräche trotzdem schlecht sind.
Warum ist Audio oft wichtiger als Video?
Audio bestimmt, ob Kommunikation überhaupt möglich ist. Video kann die Qualität reduzieren und bleibt oft noch nutzbar. Wenn Audio aussetzt, bricht die Verständigung zusammen. Deshalb wird Audio in QoS-Designs typischerweise höher priorisiert als Video.
Was ist ein gutes Zeichen dafür, dass die QoS-Ziele richtig gewählt sind?
Wenn Echtzeitklassen unter Last keine Drops zeigen, Queueing-Verzögerungen stabil bleiben und die QoE-Kennzahlen (weniger Audio-Interruptions, weniger Freeze-Events, weniger Bitrate-Pendeln) mit den Netzmetriken konsistent zusammenpassen.












