Quality of Service (QoS) im Telekommunikationsnetz ist die Grundlage dafür, dass Voice- und Video-Dienste auch unter hoher Auslastung stabil, verständlich und ohne störende Aussetzer funktionieren. Während klassische Datenanwendungen wie E-Mail oder Datei-Downloads kurze Verzögerungen meist verzeihen, reagieren Echtzeitdienste extrem empfindlich auf Paketlaufzeit, Schwankungen in der Laufzeit (Jitter) und Paketverluste. Genau hier setzt QoS an: Es priorisiert, steuert und schützt kritische Datenströme, damit Sprach- und Videopakete bevorzugt durch das Netz gelangen. In modernen Telekommunikationsnetzen – von Campus- und Provider-Backbones bis hin zu MPLS- oder SD-WAN-Umgebungen – ist QoS nicht nur „nice to have“, sondern häufig Voraussetzung für SLA-konforme Sprachqualität, ruckelfreie Videokonmunikation und zuverlässige Konferenzsysteme. Dieser Artikel erklärt die wichtigsten QoS-Grundlagen praxisnah: von Verkehrsklassen und Markierung über Queueing und Scheduling bis hin zu typischen Stolperfallen bei der Umsetzung für Voice & Video.
Warum QoS für Voice & Video so entscheidend ist
Voice over IP (VoIP) und Video-Streams sind zeitkritisch. Sie übertragen kontinuierlich kleine Pakete in festen Intervallen. Kommen diese Pakete zu spät, in unregelmäßigen Abständen oder gar nicht an, entsteht sofort ein hör- oder sichtbarer Qualitätsverlust. Drei Kennzahlen sind dabei besonders relevant:
- Latenz: Zeit, die ein Paket vom Sender zum Empfänger benötigt. Zu hohe Latenz führt zu Verzögerungen im Gespräch und „Übersprechen“.
- Jitter: Schwankungen der Paketlaufzeit. Selbst wenn die durchschnittliche Latenz akzeptabel ist, erzeugt hoher Jitter abgehackte Sprache oder Bildstörungen.
- Paketverlust: Verlorene Pakete lassen sich bei Echtzeitdiensten nur begrenzt kompensieren. Bei Sprache wirken sich bereits kleine Verlustraten störend aus; bei Video entstehen Artefakte oder Standbilder.
QoS adressiert diese Punkte, indem es Engpässe kontrolliert: Es sorgt nicht dafür, dass „mehr Bandbreite“ entsteht, sondern dafür, dass wichtige Pakete bei Konflikten bevorzugt behandelt werden. Das Ziel ist planbares Verhalten unter Last – besonders an kritischen Übergängen wie WAN-Uplinks, Provider-Edges, Aggregationsknoten oder in Mobilfunk-Transportnetzen.
Die Grundidee: Klassifizieren, markieren, behandeln
Ein solides QoS-Design folgt in der Regel einem klaren Ablauf: Zuerst wird Verkehr erkannt, dann in Klassen eingeordnet, anschließend markiert und schließlich auf allen relevanten Netzabschnitten konsistent behandelt. In Telekommunikationsnetzen ist diese Konsistenz entscheidend, weil Daten häufig mehrere Domänen durchlaufen (Access, Aggregation, Core, Peering/Transit).
Klassifizierung: Welche Pakete sind „Voice“ und welche „Video“?
Bei der Klassifizierung entscheidet das Netzgerät, zu welcher Verkehrsklasse ein Paket gehört. Das kann anhand verschiedener Merkmale passieren:
- IP-Adressen oder Subnetze (z. B. VoIP-Server, SBC, Medien-Gateways)
- TCP/UDP-Ports (z. B. SIP-Signalisierung, RTP/RTCP für Medienströme)
- Anwendungs-/Protokollerkennung (DPI) – in Provider- oder Enterprise-Edges teilweise üblich, aber datenschutz- und performanceabhängig
- Bereits gesetzte Markierungen (z. B. DSCP) – häufig der bevorzugte Weg in gut designten Netzen
Best Practice ist: Echtzeitverkehr wird möglichst nah an der Quelle korrekt klassifiziert und markiert. So vermeiden Sie, dass „irgendwo im Netz“ geraten werden muss, was ein Paket ist.
Markierung: DSCP, CoS und die Sprache der Priorität
Markierung bedeutet, dass Pakete ein „Label“ erhalten, das auf dem gesamten Pfad ausgewertet werden kann. Im IP-Netz ist dafür DSCP (Differentiated Services Code Point) im IP-Header üblich. Auf Layer 2 wird oft 802.1p/CoS (Class of Service) in VLAN-Tags genutzt. In der Praxis gilt:
- DSCP ist domänenübergreifend besonders wichtig (WAN, MPLS, Routing-Domänen).
- CoS ist vor allem im LAN und auf Trunk-Links relevant (Switching/Queueing auf Layer 2).
- Mapping zwischen CoS und DSCP muss konsistent sein (z. B. am Access-Switch oder an der WAN-Edge).
Typische DSCP-Werte (als Orientierung, nicht als starres Gesetz) sind:
- EF (Expedited Forwarding, DSCP 46): häufig für Voice-RTP (Sprachmedien) verwendet
- AF-Klassen: oft für Video oder wichtige Business-Anwendungen, abhängig vom Profil (z. B. AF41/AF42 für Video)
- CS3/CS5: teilweise für Signalisierung (z. B. SIP) oder kritische Steuerdaten
Wichtig ist weniger der konkrete Zahlenwert als die klare Vereinbarung: Welche Klasse steht für welchen Dienst, und wie wird diese Klasse an jedem Knoten behandelt?
QoS-Mechanismen im Telekommunikationsnetz
QoS besteht aus mehreren Bausteinen. Ein häufiger Fehler ist, nur „Priority“ zu aktivieren und zu glauben, damit sei alles erledigt. In der Praxis müssen Priorisierung, Pufferung und Schutzmechanismen zusammenspielen.
Queueing: Warteschlangen statt Chaos
Wenn ein Ausgangsinterface mehr Verkehr bekommt, als es gleichzeitig senden kann, muss es puffern. Dazu existieren Warteschlangen (Queues). QoS ordnet Pakete diesen Queues zu. Für Voice & Video sind zwei Aspekte entscheidend: erstens geringe Verzögerung in der Warteschlange, zweitens Schutz vor Missbrauch (damit nicht zu viel „Premium“-Traffic alles verdrängt).
Scheduling: Wer kommt als Nächstes dran?
Scheduling beschreibt, wie Pakete aus den Queues auf das Medium gelangen. Häufige Verfahren sind:
- Strict Priority (SP): Eine Queue wird immer bevorzugt geleert. Sehr gut für Voice, aber nur sicher, wenn sie begrenzt wird.
- Weighted Fair Queueing (WFQ/CBWFQ): Klassen erhalten Bandbreitenanteile (Gewichte). Gut für gemischte Dienste.
- LLQ (Low Latency Queueing): Kombination aus Prioritätsqueue (für Voice) plus gewichteten Klassen für den Rest – in vielen Designs Standard.
Für Voice ist eine echte Low-Latency-Behandlung üblich, weil Sprachpakete klein und konstant sind und von minimaler Queueing-Verzögerung profitieren. Für Video ist oft ein gewichteter Ansatz sinnvoll, da Video hohe Bitraten erzeugen kann und bei strikter Priorität andere Dienste zu stark verdrängen würde.
Policing: Grenzen setzen, damit QoS fair bleibt
Policing begrenzt Datenraten. Überschreitet ein Flow oder eine Klasse das definierte Limit, werden Pakete verworfen oder heruntergestuft (Remarking). In Telekommunikationsnetzen ist Policing besonders relevant an Übergängen:
- Provider-Edge zu Kundennetz (SLA-Einhaltung, Missbrauchsschutz)
- WAN-Uplink, wenn Bandbreite knapp oder teuer ist
- Peering/Transit, um unerwartete Traffic-Spitzen zu kontrollieren
Für Voice ist Policing heikel, weil Paketverlust sofort spürbar wird. Deshalb wird Voice häufig so dimensioniert, dass es in der Prioritätsklasse nicht „überläuft“. Für Video kann Policing hingegen ein Mittel sein, um Konferenz- oder Streaming-Traffic in Grenzen zu halten.
Shaping: Glätten statt wegwerfen
Shaping begrenzt ebenfalls die Rate, aber anders als Policing: Es puffert überschüssige Pakete und sendet sie später. Das reduziert Paketverlust und ist bei Video oft vorteilhaft, weil viele Video-Encoder bei moderaten Verzögerungen stabiler reagieren als bei Verlusten. Shaping findet typischerweise am Ausgang statt (Egress), beispielsweise auf WAN-Interfaces oder an Provider-Edges, um einen „ruhigen“ Verkehrsstrom zu erzeugen.
WRED/Drop-Strategien: Intelligentes Verwerfen bei Überlast
Bei Überlast müssen Router/Switches irgendwann Pakete verwerfen. Mit Verfahren wie WRED (Weighted Random Early Detection) lässt sich vermeiden, dass TCP-Streams gleichzeitig in den Kollaps laufen. Für Echtzeitverkehr (RTP) ist WRED selten sinnvoll, weil RTP nicht wie TCP reagiert. Hier ist eher wichtig, dass Echtzeitklassen nicht in Situationen geraten, in denen überhaupt verworfen werden muss – das ist primär ein Design- und Kapazitätsthema.
QoS-Design für Voice: Priorität ja, aber kontrolliert
Voice-Traffic (RTP) ist meist relativ bandbreitenschonend, aber extrem empfindlich gegen Delay und Jitter. Typische Ziele sind: minimale Warteschlangenzeit, stabile Paketlaufzeiten und möglichst kein Verlust. Dafür wird Voice häufig in eine Low-Latency- oder Priority-Klasse gelegt.
- Markierung konsistent halten: Voice-Medienpakete sollten bereits am Endgerät oder am Access-Edge korrekt mit einer Voice-Klasse markiert werden.
- Prioritätsklasse begrenzen: Eine Priority-Queue ohne Limit kann andere Klassen vollständig verdrängen. Daher wird Voice meist mit einem definierten Bandbreitenanteil oder einem Maximum abgesichert.
- Signalisierung getrennt behandeln: SIP/H.323-Signalisierung ist wichtig, aber weniger empfindlich als RTP. Oft erhält Signalisierung eine eigene Klasse mit hoher, aber nicht strikter Priorität.
Praktisch bedeutet das: Voice bekommt „Express-Spur“, aber diese Spur ist so dimensioniert, dass sie realistische Spitzen abdeckt, ohne zum Dauerstau für alles andere zu führen.
QoS-Design für Video: Bandbreite planen, Fairness sichern
Video ist komplexer als Voice: Bitraten variieren stärker, Auflösungen und Codecs verändern das Profil, und manche Systeme passen die Rate dynamisch an (Adaptive Bitrate). Video ist ebenfalls zeitkritisch, toleriert aber in vielen Fällen minimal mehr Verzögerung als Voice. Dafür sind hohe Durchsatzanforderungen typisch.
- Eigene Videoklasse: Video sollte nicht in der gleichen Klasse wie Voice landen. Sonst kann Video die Voice-Queue füllen oder die Prioritätslogik verzerren.
- Gewichtete Zuteilung: Video erhält häufig garantierte Bandbreite (WFQ/CBWFQ) plus die Möglichkeit, bei freier Kapazität mehr zu nutzen.
- Shaping statt hartem Policing: Wo möglich, ist Shaping für Video vorteilhaft, um Paketverluste zu reduzieren.
Gerade bei Videokonferenzen ist zudem wichtig, zwischen interaktivem Video (Meetings) und nicht-interaktivem Video (Streaming/On-Demand) zu unterscheiden. Interaktives Video verdient in der Regel eine höhere Klasse als reines Streaming.
End-to-End-QoS: Warum „ein Router“ nicht reicht
QoS wirkt nur dann zuverlässig, wenn es durchgängig umgesetzt wird. Ein häufiger Praxisfehler ist, nur am WAN-Router „QoS einzuschalten“, während im LAN keine korrekte Markierung existiert oder im Provider-Netz Markierungen ignoriert bzw. überschrieben werden. End-to-End bedeutet:
- Trust Boundary definieren: An welcher Stelle werden Markierungen vom Endgerät akzeptiert? Oft am Access-Switch-Port (VoIP-Telefon ja, beliebiger PC nein).
- Mapping und Remarking steuern: Wenn ein Netzabschnitt andere Klassenmodelle nutzt (z. B. LAN-CoS vs. WAN-DSCP vs. MPLS-EXP), müssen klare Übersetzungen existieren.
- Provider-Profil kennen: In Carrier-Umgebungen gibt es häufig ein festes Klassenmodell mit definierten DSCP/Traffic-Classes. Kundenseitige Markierungen werden dann nur in bestimmten Bereichen akzeptiert.
Wenn irgendwo auf dem Pfad die Markierungen verloren gehen oder eine Station keine passenden Queues besitzt, verpufft der QoS-Effekt genau dort, wo Sie ihn brauchen.
Typische QoS-Stolperfallen in Telekommunikationsnetzen
- Alles wird „hoch priorisiert“: Wenn zu viele Anwendungen als „Echtzeit“ markiert werden, verliert QoS seine Steuerwirkung. Priorität muss knapp und begründet sein.
- Fehlende Kapazitätsplanung: QoS ersetzt keine Bandbreite. Wenn Engpässe dauerhaft überlastet sind, hilft Priorisierung nur begrenzt und führt zu schlechten Nutzererfahrungen in niedrigeren Klassen.
- Unklare Trust-Policy: Endgeräte markieren Traffic teils falsch (absichtlich oder versehentlich). Ohne Trust Boundary kann das Netz ausgenutzt werden.
- Asymmetrische Pfade: Voice/Video kann hin- und zurück unterschiedliche Wege gehen. QoS muss auf beiden Richtungen konsistent sein.
- Jitter durch Pufferbloat: Zu große Puffer können Latenzspitzen erzeugen. Gerade bei WAN-Edges sind passende Queue-Limits und Shaping-Profile wichtig.
- Unzureichendes Monitoring: Ohne Messwerte zu Latenz, Jitter, Verlust und Queue-Auslastung bleibt QoS ein Ratespiel.
Messgrößen und Monitoring: So wird QoS überprüfbar
QoS sollte nicht nur „konfiguriert“, sondern auch validiert werden. Für Voice & Video sind diese Methoden üblich:
- Queue-Statistiken: Auslastung pro Klasse, Drops, Shaping/Policing-Ereignisse
- RTP-Metriken: Jitter, Paketverlust, MOS-Schätzung (je nach System)
- Aktive Messungen: Synthetic Probes (z. B. UDP-Jitter-Tests) über kritische Strecken
- Flow-Daten: NetFlow/IPFIX zur Sichtbarkeit von Volumen und Top-Talkern pro Klasse
Im Telekommunikationsnetz ist außerdem wichtig, Messpunkte entlang der Service-Kette zu setzen: Access, Aggregation, Core und Übergänge. So erkennen Sie schnell, ob Probleme durch Markierung, durch Engpässe oder durch fehlerhafte Queue-Profile entstehen.
Praxisnahes Klassenmodell: Ein verständlicher Startpunkt
Für Einsteiger und Mittelstufe ist ein überschaubares Klassenmodell oft besser als ein hochkomplexes Schema. Ein typisches, gut wartbares Modell kann so aussehen:
- Voice (RTP): höchste Priorität, strikt bevorzugt, aber begrenzt
- Voice-Signalisierung: hoch priorisiert, aber nicht strikt
- Interaktives Video: garantierte Bandbreite, gewichtete Behandlung
- Business Critical: wichtige Anwendungen (z. B. VDI, ERP), garantierte Anteile
- Best Effort: Standard-Datenverkehr
- Scavenger/Background: Updates, Backups, große Downloads mit niedriger Priorität
Der Schlüssel liegt in der sauberen Definition: Welche Anwendungen gehören wohin, wie werden sie erkannt, wie werden sie markiert, und welche Behandlung erhält jede Klasse an Engpässen?
QoS in MPLS, Carrier Ethernet und modernen WANs
In Telekommunikationsnetzen kommen häufig MPLS oder Carrier-Ethernet zum Einsatz. Hier wird QoS oft in Provider-Traffic-Classes umgesetzt, die intern auf Label-Felder oder service-spezifische Markierungen abgebildet werden. Für Kunden ist wichtig, das Provider-QoS-Profil zu verstehen: Welche DSCP-Werte werden akzeptiert, welche Klassen gibt es, welche Bandbreiten- und Drop-Profile gelten, und wie werden Überschreitungen behandelt (Drop vs. Remark)?
In SD-WAN-Umgebungen kommt eine zusätzliche Ebene dazu: Applikationserkennung, dynamisches Steering über mehrere Links (z. B. Internet + MPLS) und Performance-basierte Pfadwahl. QoS bleibt dabei relevant, weil auch SD-WAN-Overlays letztlich über physische Engpässe laufen. Gute SD-WAN-Designs kombinieren Pfadwahl (Latenz/Jitter/Loss) mit klassischem Queueing/Shaping auf dem Underlay.
Best Practices für eine saubere QoS-Implementierung
- QoS-Policy dokumentieren: Klassen, Markierungen, Ziele, Grenzwerte, Trust-Boundary
- Markierung an der Quelle: möglichst früh und eindeutig, anschließend durchgängig erhalten
- Voice priorisieren, aber limitieren: niedrige Latenz ohne Verdrängung anderer Klassen
- Video getrennt behandeln: gewichtete Bandbreite und ggf. Shaping
- Engpässe identifizieren: QoS nur dort aktivieren, wo tatsächlich Contention entsteht (typisch: WAN/Uplinks)
- Monitoring von Anfang an: Drops, Queue-Depth, Jitter/Delay kontinuierlich beobachten
- Regelmäßig testen: Änderungen an Codecs, Konferenzplattformen oder WAN-Links beeinflussen das QoS-Profil
Häufige Fragen zu QoS für Voice & Video
Reicht es, Voice auf „Highest Priority“ zu setzen?
Nein. Ohne Begrenzung kann eine Prioritätsklasse andere Dienste verdrängen. Zusätzlich müssen Markierung, Klassifizierung und End-to-End-Behandlung stimmen, sonst wird die Priorität unterwegs wirkungslos.
Ist QoS auch bei „genug Bandbreite“ notwendig?
Oft ja, weil Engpässe nicht nur durch Bandbreite entstehen: Burst-Verhalten, Mikrospitzen, asymmetrische Pfade, Pufferung und Übergänge zwischen Netzen können auch bei scheinbar ausreichend Kapazität zu Jitter und Verlust führen.
Was ist wichtiger: niedrige Latenz oder kein Paketverlust?
Für Voice sind beide wichtig, aber geringe Queueing-Latenz und niedriger Jitter stehen meist an erster Stelle. Für Video kann moderates Shaping (mehr Verzögerung, weniger Verlust) häufig besser sein als aggressives Policing (weniger Verzögerung, mehr Verlust), abhängig vom Einsatzszenario.












