Prioritäts-Queueing – häufig als LLQ (Low Latency Queue) umgesetzt – ist eines der wirksamsten QoS-Werkzeuge, um Echtzeittraffic wie Voice zuverlässig vor Latenz und Jitter zu schützen. Gleichzeitig ist LLQ eines der gefährlichsten QoS-Features, wenn es falsch konzipiert oder unkontrolliert ausgerollt wird: Eine zu große oder unlimitierte Priority-Queue kann andere Klassen verhungern lassen, Congestion verschleiern, Fehlmarkierung belohnen und im Provider- oder Enterprise-Betrieb zu schwer nachvollziehbaren Störungen führen. Genau deshalb lohnt sich ein klarer Blick auf die Frage: Wann ist LLQ sinnvoll – und wann wird es zum Risiko? In diesem Artikel erfahren Sie, wie Prioritäts-Queueing technisch funktioniert, welche Workloads wirklich in die Priority-Queue gehören, wie Sie Limits und Shaping korrekt kombinieren, welche typischen Stolperfallen in Telco-Backbones, Metro-Aggregation und Access-Netzen auftreten und wie Sie LLQ im Betrieb so überwachen, dass Sprachqualität stabil bleibt, ohne Best Effort und Business-Traffic zu zerstören.
Was ist Prioritäts-Queueing und was bedeutet LLQ?
Prioritäts-Queueing beschreibt ein Scheduling-Verfahren, bei dem eine bestimmte Warteschlange gegenüber anderen Warteschlangen bevorzugt bedient wird. LLQ ist in vielen Architekturen die praktische Umsetzung: Eine (oder wenige) Klassen werden als „Low Latency“ behandelt, d. h. Pakete aus dieser Queue werden mit minimaler Warteschlangenzeit gesendet. In der Praxis kombiniert LLQ häufig zwei Konzepte:
- Strict Priority: Eine Queue wird bevorzugt geleert, bevor andere Queues bedient werden.
- Class-based Scheduling: Andere Klassen erhalten gewichtete Bandbreitenanteile (z. B. WFQ/CBWFQ).
LLQ ist daher kein Ersatz für ein Klassenmodell, sondern ein Baustein darin: Sie geben wenigen, sehr sensiblen Paketen eine Express-Spur – und verteilen den Rest kontrolliert über Gewichte.
Warum LLQ so gut wirkt: Voice ist klein, aber extrem sensibel
Der Hauptnutzen von LLQ zeigt sich bei Echtzeit-Audio/Voice. Sprachpakete sind klein und kommen in festen Intervallen. Bei Congestion entstehen Latenz und Jitter fast immer durch Queueing. LLQ verhindert, dass Sprachpakete in einer Best-Effort-Warteschlange hinter großen Datenpaketen warten müssen.
- Geringere Queueing-Latenz: Voice-Pakete werden schneller gesendet.
- Weniger Jitter: Schwankungen der Queue-Tiefe wirken sich weniger auf Voice aus.
- Weniger Paketverlust für Echtzeit: Wenn Voice aus überlaufenden Best-Effort-Queues herausgehalten wird, sinkt das Drop-Risiko.
In Telco- und UC-Designs ist LLQ daher oft das zentrale Element, um MOS/R-Faktor stabil zu halten, insbesondere auf WAN-/Backhaul-Links und in Aggregationsnetzen.
Wann LLQ sinnvoll ist: typische Einsatzszenarien
LLQ lohnt sich vor allem dort, wo echte Engpässe auftreten und Echtzeitdienste geschützt werden müssen. In der Praxis sind das oft die folgenden Szenarien:
- WAN-Edges und Internet-Uplinks: begrenzte Bandbreite, starke Lastschwankungen, hoher QoE-Effekt.
- Mobile Backhaul: Voice/VoLTE muss trotz hoher Funklast stabil bleiben; Backhaul-Engpässe erzeugen sonst Jitter.
- Metro-Aggregation: Microbursts und Oversubscription; LLQ verhindert, dass Voice in Burst-Queues untergeht.
- Access-Upstreams: Upstream ist oft der knappe Teil; LLQ schützt Audio gegen Upload-Bufferbloat.
- Provider-Edge bei SLA-Services: Business Voice und managed UC erfordern planbare Echtzeitbehandlung.
Die Regel lautet: LLQ dort einsetzen, wo Congestion realistisch ist. Im überdimensionierten Core kann LLQ weniger sichtbar sein, ist aber für Worst-Case-Events (Failover, Hotspots) trotzdem sinnvoll.
Welche Traffic-Arten in eine LLQ gehören – und welche nicht
Der größte Erfolgsfaktor ist die richtige Klassifizierung. LLQ ist für Traffic gedacht, der extrem sensitiv gegenüber Delay/Jitter ist und gleichzeitig relativ wenig Bandbreite benötigt.
In die LLQ gehören typischerweise
- Voice Media (RTP/RTCP): VoIP, IMS/VoLTE/VoNR-Audio, UC-Audio.
- Sehr schmale kritische Steuerpfade: nur in klar begründeten Ausnahmefällen und streng begrenzt.
Nicht in die LLQ gehören typischerweise
- Video: interaktives Video braucht Priorität, aber gewichtet; Video in LLQ kann die Queue füllen und andere verdrängen.
- Screen Sharing/Content: bursty und potenziell groß; besser in eine eigene gewichtete Klasse.
- Business Critical: braucht Mindestanteile, nicht strict priority.
- Signalisierung (SIP): wichtig, aber nicht so strict wie Medien; oft separate Control-Klasse.
- Management/Monitoring: wichtig, aber bei falscher Priorisierung kann es LLQ inflationieren.
Wenn Sie „mehr als Voice“ in die LLQ packen, steigt das Risiko, dass LLQ zu groß wird – und damit gefährlich.
Wann LLQ gefährlich wird: Starvation, Missmarkierung und Netzinstabilität
LLQ wird gefährlich, wenn die Prioritätsklasse unkontrolliert wächst oder unlimitiert betrieben wird. Die häufigsten Risiken:
- Starvation: Andere Klassen erhalten zu wenig Sendezeit, weil die Priority-Queue ständig befüllt ist.
- Premium-Inflation: Wenn viele Quellen LLQ-Markierungen setzen, wird „Premium“ zum Default und verliert Wirkung.
- Versteckte Congestion: LLQ kann Probleme in Best Effort „verdecken“, während Endnutzer massive Langsamkeit sehen.
- Fehlmarkierung wird belohnt: Untrusted Endgeräte markieren Traffic als Echtzeit; ohne Trust Boundary wird das Netz angreifbar.
- Unfairness in Multi-Tenant-Umgebungen: Ein Tenant kann mit LLQ-Missbrauch andere verdrängen.
In Provider-Netzen sind diese Risiken besonders relevant, weil viele Kunden und Dienste auf derselben Infrastruktur laufen. Deshalb ist LLQ ohne Limits praktisch nie akzeptabel.
Die wichtigste Designregel: LLQ immer begrenzen
In der Praxis bedeutet „LLQ begrenzen“: Die Priority-Queue erhält ein definiertes Bandbreitenmaximum oder eine definierte Rate, die realistische Peaks abdeckt. Das Limit verhindert Starvation und zwingt das Design, Voice korrekt zu dimensionieren.
- Bandbreitenlimit (Priority Cap): begrenzt die Sendezeit der Priority-Queue.
- Queue-Limits: halten die Warteschlange kurz, damit Voice nicht durch Pufferung wieder Latenz aufbaut.
- Profilierung am Rand: pro Kunde/Standort Budget für Voice, damit LLQ nicht „aufgeblasen“ wird.
Ein praktischer Betriebsgrundsatz: Drops in der LLQ sollten praktisch nicht auftreten. Wenn sie auftreten, ist die Dimensionierung, das Limit oder die Markierungsdisziplin falsch.
LLQ und Shaping: Warum die Kombination so wichtig ist
Viele Engpässe sind rate-limitiert (WAN-CIR, Access-Profile, Microwave-Kapazität). Wenn Sie nur LLQ konfigurieren, aber den Link nicht sauber shapen, können Downstream-Policer Drop-Cluster erzeugen – und diese Drops treffen auch Echtzeit, wenn Burst-Spitzen ungünstig sind.
- Shaping glättet Bursts: reduziert Microburst-bedingte Drops und stabilisiert Jitter.
- LLQ schützt Echtzeit in der Warteschlange: Voice kommt vor Best Effort.
- Gemeinsam: Shaping verhindert Drop-Cluster, LLQ verhindert Delay/Jitter-Spitzen – das ist die robusteste Kombination.
Gerade in Metro- und Backhaul-Umgebungen ist Shaping oft der Hebel, der LLQ erst wirklich „sauber“ macht.
LLQ im Telco-Kontext: Edge, Metro, Core – unterschiedliche Rollen
LLQ wird je nach Domäne unterschiedlich eingesetzt:
- Access/Edge: LLQ schützt Voice gegen lokale Engpässe und Bufferbloat; Trust Boundary ist entscheidend.
- Metro-Aggregation: LLQ fängt Microbursts ab, solange Limits und Shaping stimmen.
- IP/MPLS-Core: LLQ ist weniger sichtbar im Normalbetrieb, aber wichtig für Failover- und Hotspot-Szenarien; konsistentes DSCP->TC Mapping ist Pflicht.
In Telco-Netzen gilt zusätzlich: LLQ ist nur so gut wie die End-to-End-Kohärenz. Wenn Voice irgendwo als Best Effort behandelt wird, entstehen genau dort Jitter und Qualitätsabfall.
Typische Fehlkonfigurationen – und ihre Symptome
- Video in LLQ: Best Effort wird langsam, Voice wird paradox schlechter, weil LLQ „zu groß“ wird.
- LLQ ohne Limit: einzelne Peaks führen zu Starvation anderer Klassen; Tickets über „Internet tot“ häufen sich.
- LLQ korrekt, aber kein Shaping: bei Peak-Last treten Drop-Cluster auf, Voice hat Aussetzer trotz Priorisierung.
- Fehlende Trust Boundary: Premium-Inflation, LLQ-Auslastung steigt unplausibel, QoS verliert Wirkung.
- Inkonsequentes Mapping (DSCP/TC/CoS): Voice ist markiert, aber landet auf bestimmten Hops nicht in LLQ.
In der Praxis sind diese Fehler oft an denselben Messwerten erkennbar: Queue-Drops, Queue-Depth, Policer-Hits und auffällige LLQ-Auslastung.
Monitoring: Wie Sie LLQ sicher betreiben
LLQ ist ein Betriebskonstrukt. Ohne Monitoring ist es riskant. Sinnvolle Kennzahlen sind:
- LLQ-Auslastung: konstant hoch ist verdächtig; LLQ sollte nur einen kleinen Anteil tragen.
- Drops in der LLQ: kritisch; deutet auf falsche Dimensionierung oder falsches Limit hin.
- Queue-Depth/Queueing Delay: zeigt, ob LLQ wirklich „low latency“ bleibt.
- Policer-Hits und Remarking: zeigt Missmarkierung oder zu enge Budgets.
- QoE-KPIs: MOS/R-Faktor, Jitter/Loss aus RTP/RTCP oder UC-Analytics korrelieren mit LLQ-Ereignissen.
Ein bewährter Alarmstandard lautet: Drops in der Voice-LLQ sind ein Incident. Damit schützen Sie die wichtigste Echtzeitklasse konsequent.
Best Practices: Wann LLQ sinnvoll ist – und wie Sie es ungefährlich machen
- LLQ nur für Voice Media: RTP/RTCP, nicht für Video oder „wichtige Apps“.
- Strict Priority immer limitieren: Bandbreitenmaximum und kleine Queue-Limits.
- Video gewichtet behandeln: eigene AF-Klasse mit garantierten Anteilen statt LLQ.
- Trust Boundary definieren: Markierungen nur aus kontrollierten Quellen akzeptieren, sonst remarken.
- Shaping an Engpässen: Bursts glätten, Drop-Cluster vermeiden.
- End-to-End Mapping sicherstellen: DSCP/CoS/MPLS-TC konsistent über Access, Metro und Core.
- Monitoring verpflichtend: LLQ-Auslastung, Drops, Queue-Depth und QoE-Korrelation.
Häufige Fragen zu LLQ
Ist LLQ für Video Calls sinnvoll?
Für Audio ja, für Video meist nein. Interaktives Video sollte bevorzugt werden, aber über gewichtete Klassen mit garantierten Anteilen. Video in der Priority-Queue kann bei Peaks andere Klassen verdrängen und die Netzstabilität gefährden.
Warum wird LLQ im Core manchmal weniger betont?
Weil der Core oft besser dimensioniert ist und Congestion seltener auftritt. LLQ bleibt dennoch wichtig für Ausnahmefälle wie Failover, Hotspots oder Interconnect-Engpässe. Entscheidend ist die Konsistenz: Voice muss auf jedem Hop in der richtigen Queue landen.
Was ist das wichtigste Warnsignal, dass LLQ gefährlich wird?
Eine dauerhaft hohe LLQ-Auslastung oder Drops in der LLQ. Beides deutet darauf hin, dass zu viel Traffic in der Priority-Queue landet, Limits falsch sind oder Trust/Profilierung nicht greifen.











