Site icon bintorosoft.com

QoS und Overbooking: Wo die Grenzen im Access liegen

QoS und Overbooking gehören im Access-Netz untrennbar zusammen, weil die letzte Meile und die erste Aggregationsstufe fast immer überbucht sind – technisch, wirtschaftlich und betrieblich. Overbooking bedeutet, dass die Summe der vermarkteten Anschlussbandbreiten (z. B. 1 Gbit/s pro Kunde) deutlich größer ist als die tatsächlich verfügbare Kapazität auf einem gemeinsamen Segment (z. B. PON-Split, DSLAM-Uplink, CMTS/Remote-PHY-Uplink, Funkzelle oder Aggregationsuplink). Das ist grundsätzlich nicht „falsch“, sondern ein betriebswirtschaftliches Prinzip: Nicht alle Kunden nutzen gleichzeitig ihre Maximalrate. Problematisch wird Overbooking jedoch dann, wenn Echtzeitverkehr wie Voice, interaktives Video (WebRTC, Videokonferenzen) oder IPTV (Multicast) auf genau diesen überbuchten Access trifft. Denn Echtzeit leidet nicht primär an „zu wenig Durchschnittsbandbreite“, sondern an kurzzeitigen Engpässen, Microbursts, Queueing Delay-Spitzen und Paketverlustclustern. Genau dort liegen die Grenzen: In einem überbuchten Access können Sie mit QoS sehr viel stabilisieren, aber nicht alles „wegpriorisieren“. Wenn die physische Kapazität regelmäßig überschritten wird, muss QoS irgendwann harte Entscheidungen treffen: Wen schützt man, wen degradiert man, und wie verhindert man, dass Premium-Klassen sich aufblähen und am Ende sogar Voice schlechter wird? Dieser Artikel erklärt, wie Overbooking im Access entsteht, welche Grenzwerte in der Praxis relevant sind, welche QoS-Mechanismen wirklich helfen (und welche Nebenwirkungen erzeugen) und wie Sie Overbooking so planen, dass Voice & Video auch bei hoher Auslastung möglichst stabil bleiben.

Was Overbooking im Access wirklich bedeutet

Overbooking ist im Kern ein statistisches Modell: Sie verkaufen eine „Peak Rate“, rechnen aber mit einer deutlich niedrigeren gleichzeitigen Nutzung (Concurrency). In Access-Technologien ist das strukturell eingebaut, weil viele Teilnehmer ein gemeinsames Medium oder einen gemeinsamen Uplink teilen.

Die Herausforderung ist, dass QoS nicht die Kapazität erhöht, sondern nur entscheidet, wie Engpässe verteilt werden. Ab einem bestimmten Punkt kann QoS nur noch „Schaden begrenzen“.

Warum Access-Overbooking Echtzeit zuerst trifft

Wenn ein Segment überbucht ist, entstehen Warteschlangen. Warteschlangen erzeugen Delay und Jitter. Und wenn Warteschlangen überlaufen oder Policers greifen, entsteht Paketverlust. Echtzeitverkehr ist hier besonders empfindlich:

In der Praxis heißt das: Overbooking zeigt sich nicht zuerst als „Speedtest langsam“, sondern als „Meetings ruckeln“ oder „Telefonie knackt“ – weil die Nutzerqualität an Peaks hängt, nicht am Durchschnitt.

Wo die physikalischen Grenzen im Access liegen

Die Grenze ist erreicht, wenn die überbuchte Ressource regelmäßig in einen Zustand kommt, in dem selbst Premiumklassen (Voice/Control) nicht mehr ohne Drops oder große Delay-Spitzen bedient werden können. Diese Grenze ist nicht nur eine Zahl, sondern hängt von Trafficprofilen ab:

Eine operative Definition der Grenze lautet: Wenn in der Voice-Klasse Drops auftreten oder wenn Voice-Queueing-Delay-Perzentile stark ansteigen, ist Overbooking nicht mehr „nur ökonomisch“, sondern QoE-kritisch.

Overbooking-Topologien im Access: Wo es typischerweise eng wird

Access ist nicht gleich Access. Je nach Technologie sitzen Engpässe an unterschiedlichen Stellen – und QoS muss dort greifen, wo der Engpass tatsächlich ist.

Der wichtigste Punkt: QoS muss an der Stelle wirken, wo gequeued und gedroppt wird. QoS im Core rettet keine überlaufenden Puffer im CPE oder Modem.

QoS-Mechanismen, die Overbooking im Access wirklich entschärfen

Im überbuchten Access sind nicht alle QoS-Werkzeuge gleich wirksam. Besonders bewährt haben sich Mechanismen, die Bursts glätten und Warteschlangen kontrollieren.

Shaping gegen Bufferbloat und Policer-Drops

LLQ für Voice – aber strikt limitiert

Gewichtete Klassen für Video und Control

Queue-Limits bewusst dimensionieren

Was QoS nicht kann: Overbooking „wegzaubern“

QoS kann Prioritäten setzen, aber keine Kapazität erzeugen. In einem dauerhaft überlasteten Segment muss irgendjemand verlieren. Typische Grenzen:

Die Konsequenz ist ein realistisches SLA- und Produktdesign: Voice kann oft stabil gehalten werden, Video kann kontrolliert degradiert werden, aber Best Effort muss in Spitzen bewusst zurückstehen.

Die Overbooking-Falle: Premium-Inflation im Access

Eine der häufigsten Ursachen für „QoS hilft nicht“ ist Premium-Inflation: Zu viele Flows landen in Premiumklassen (EF/LLQ oder „High Priority“), weil Markierungen blind vertraut werden oder Apps unpassend markieren.

Ein robustes Access-Design setzt deshalb Trust Boundaries und Remarking-Regeln: Voice darf EF sein, aber nur aus definierten Quellen und nur bis zu einem profilieren Budget. Überschuss wird herabgestuft statt gedroppt.

Overbooking und Richtung: Warum der Upstream der kritische Punkt ist

Viele Access-Probleme sind uplink-dominiert. Gründe:

Deshalb ist „Upstream-Shaping + Voice-LLQ + kontrollierte BE-Queues“ oft der schnellste Weg, um trotz Overbooking spürbar bessere QoE zu erreichen.

Planung: Welche Serviceprofile in overbooked Access sinnvoll sind

Ein praktikables Klassenmodell im Access sollte wenige, klare Klassen haben, damit Mapping und Betrieb beherrschbar bleiben:

In overbooked Umgebungen ist „zu viele Klassen“ ein Risiko: Jede zusätzliche Klasse erhöht die Wahrscheinlichkeit von Mapping-Löchern und Drift.

Grenzen sichtbar machen: Welche Metriken Overbooking-Probleme früh zeigen

Overbooking wird im Betrieb häufig zu spät erkannt, weil nur Linkauslastung betrachtet wird. Für QoS und Access-Grenzen sind diese Metriken entscheidend:

Eine praktische Betriebsregel lautet: Wenn Voice-Queueing-Delay-Perzentile steigen oder EF-Drops auftreten, ist das Overbooking- oder Governance-Problem bereits in der Qualitätszone, nicht nur in der „Kapazitätszone“.

Typische Fehlannahmen bei QoS und Overbooking

Praxis-Blueprint: Overbooking im Access so designen, dass Echtzeit stabil bleibt

Häufige Fragen zu QoS und Overbooking im Access

Kann QoS Overbooking vollständig kompensieren?

Nein. QoS verteilt Engpässe, erhöht aber keine Kapazität. Es kann Voice und Control in vielen Fällen stabil halten und Video kontrolliert degradieren lassen. Wenn die physische Kapazität jedoch regelmäßig deutlich überschritten wird, müssen Dienste verlieren – dann ist Ausbau oder Produkt-/Profilanpassung nötig.

Warum sind Access-Probleme oft nur im Upstream sichtbar?

Weil Upstreamraten häufig kleiner sind und weil Bufferbloat und harte Providerprofile dort besonders stark wirken. Ein einzelner Upload oder Screen Share kann den Upstream so puffern, dass Voice Jitter sieht, obwohl der Downstream frei wirkt. Upstream-Shaping ist deshalb ein zentraler QoS-Baustein.

Was ist das wichtigste Signal dafür, dass Overbooking die Qualitätsgrenze erreicht hat?

Drops oder starke Queueing-Delay-Perzentile in der Voice-Klasse (EF/LLQ) sowie ein unplausibler Anstieg des EF-Volumens. Das zeigt entweder echte Kapazitätsknappheit im Fail-/Peak-Zustand oder Premium-Inflation durch Fehlmarkierung – beides ist qualitativ kritisch und sollte priorisiert behandelt werden.

Exit mobile version