QoS im Access-Netz ist für Provider der Hebel, um trotz geteilter Ressourcen und begrenzter Upstream-Kapazität eine stabile Nutzererfahrung für Echtzeitdienste wie VoIP, Video Calls, IPTV und Gaming zu ermöglichen. Gerade bei Anschlusstechnologien wie FTTH, DSL und HFC (Kabel) entstehen Engpässe nicht nur im Backbone, sondern sehr häufig direkt am Rand des Netzes: am Teilnehmeranschluss, im Aggregationssegment oder im Rückkanal. Wenn hier Warteschlangen unkontrolliert anwachsen, entstehen Latenzspitzen und Jitter – typische Symptome sind abgehackte Sprache, ruckelnde Meetings oder Buffering beim Video. QoS im Access-Netz bedeutet daher nicht „mehr Bandbreite“, sondern eine planbare Priorisierung und Steuerung: Welche Pakete bekommen Vorrang, welche werden geglättet (Shaping), welche begrenzt (Policing) und wo werden Markierungen akzeptiert oder überschrieben (Trust Boundary)? Dieser Artikel erklärt praxisnah, wie Priorisierung bei FTTH, DSL und HFC funktioniert, welche Engpässe typisch sind und welche Telco-Strategien sich bewährt haben, um QoS im Access-Netz sauber und skalierbar umzusetzen – von der CPE bis zum ersten Provider-Knoten.
Warum Access-QoS oft wichtiger ist als Core-QoS
In vielen Provider-Netzen ist der Core gut dimensioniert und selten dauerhaft überlastet. Die spürbaren Qualitätsprobleme entstehen dagegen häufig im Access:
- Asymmetrische Bandbreiten: Upstream ist oft deutlich kleiner als Downstream – und genau dort entsteht bei Echtzeitdiensten schnell Congestion.
- Geteilte Medien: HFC teilt Kapazität zwischen vielen Teilnehmern; auch PON bei FTTH ist eine Shared-Medium-Technik.
- Variable Leitungsqualität: DSL ist stark abhängig von Leitungslänge, Störungen und Synchronisationsrate.
- Bufferbloat in CPEs: Große Puffer in Routern/Modems erzeugen hohe Latenzspitzen, obwohl Paketverlust niedrig bleibt.
- Traffic-Mix: Videokonferenzen, Cloud-Backups, Gaming und Streaming konkurrieren zeitgleich.
QoS im Access-Netz zielt deshalb auf ein klares Ziel: Echtzeitpakete dürfen nicht im „Datenstau“ großer Best-Effort-Queues hängen bleiben, besonders nicht im Upstream.
Die wichtigsten QoS-Ziele im Access: Latenz, Jitter, Paketverlust
Access-QoS orientiert sich an den gleichen Qualitätsgrößen wie jedes Echtzeitnetz, aber die Ursachen liegen oft näher am Endgerät:
- Latenz: steigt im Access vor allem durch Queueing (Warteschlangen) in CPE oder Access-Knoten.
- Jitter: entsteht durch wechselnde Queue-Tiefe, Scheduling-Variationen (Shared Medium) und Störungen.
- Paketverlust: tritt häufig bei Überlast oder durch fehlerhafte Leitungen auf; bei DSL auch durch Retransmissions/FEC-Mechanismen indirekt sichtbar.
Ein praxisnaher Grundsatz für Provider: Wenn Echtzeitqualität im Access schlecht ist, liegt die Ursache sehr oft an Upstream-Congestion oder an Bufferbloat – und weniger an „zu wenig QoS im Core“.
Grundarchitektur im Access: CPE, Access Node, Aggregation
QoS im Access-Netz ist eine Kette. Damit Priorisierung wirkt, müssen mehrere Ebenen zusammenpassen:
- CPE (Customer Premises Equipment): Router/Modem/ONT – hier entstehen häufig große Puffer und der erste Engpass (besonders Upstream).
- Access Node: OLT (FTTH), DSLAM/MSAN (DSL), CMTS/CCAP (HFC) – hier wird Teilnehmerverkehr geformt, geplant und oft per Scheduler verteilt.
- Aggregation: Uplinks Richtung Metro/Core – hier treffen viele Teilnehmerströme zusammen, Microbursts sind typisch.
Ein gutes Access-QoS-Design definiert, wo Markierung gesetzt/akzeptiert wird, wo Shaping stattfindet und wo Klassen in Queues umgesetzt werden.
QoS-Bausteine im Provider-Access: Was wirklich wirkt
Unabhängig von der Technologie sind diese Mechanismen entscheidend:
- Klassifizierung: Voice/Video/Best Effort sauber trennen (ideal über DSCP/Serviceprofile).
- Trust Boundary: Kundenmarkierungen nur kontrolliert akzeptieren; sonst droht Missbrauch („alles Premium“).
- Shaping: Verkehr am Egress glätten, damit Downstream-Policer nicht droppen und damit Microbursts abflachen.
- Queueing & Scheduling: Echtzeit in eigene Queue; Audio meist streng bevorzugt, aber immer begrenzt.
- Policing/Profilierung: Premium-Traffic pro Kunde/Service budgetieren (Fairness und SLA-Schutz).
Im Access ist Shaping besonders wichtig, weil viele Engpässe rate-limitiert sind (z. B. DSL-Sync, PON-Profil, Upstream-Slots in HFC). Harte Drops durch Policing führen sonst zu hör- und sichtbaren Störungen.
QoS im FTTH-Access: Priorisierung in PON-Umgebungen
FTTH wirkt für Kunden oft „perfekt“, weil hohe Downstream-Raten verfügbar sind. Dennoch ist FTTH-Access in vielen Fällen ein Shared Medium (z. B. PON), und QoS-Fragen tauchen vor allem im Upstream und bei Aggregation auf.
Typische Engpässe bei FTTH
- Upstream-Teilung im PON: Mehrere ONTs teilen sich Upstream-Zeitfenster; Scheduling bestimmt Latenz und Jitter.
- Service-Profile: Bandbreitenprofile pro Kunde (CIR/PIR) erzeugen Rate-Limits, die sauber geformt werden müssen.
- Aggregation-Uplinks: Viele schnelle Anschlüsse bündeln sich – Microbursts entstehen trotz guter Durchschnittslast.
Best Practices für FTTH-QoS
- Klare Serviceklassen: Voice/Audio strikt getrennt von Video und Best Effort.
- DBA-/Scheduler-Strategie: Echtzeitklassen erhalten bevorzugte, aber begrenzte Ressourcen.
- Egress-Shaping an Rate-Profilen: Glättet Verkehr und verhindert Drop-Spitzen an nachgelagerten Policern.
- Mapping konsistent halten: DSCP/CoS (und ggf. interne Traffic-Classes) durchgängig interpretieren.
FTTH-QoS ist besonders effektiv, wenn der Provider Managed CPE oder klare Trust-Regeln hat – so wird Premium-Traffic sauber in Klassen geführt, ohne dass Kunden das System aushebeln können.
QoS im DSL-Access: Umgang mit variablem Sync und Leitungseinflüssen
DSL ist technologisch anspruchsvoll, weil die verfügbare Bandbreite nicht „fix“ ist, sondern von der Leitung abhängt. Zudem ist der Upstream oft knapp. QoS im DSL-Access muss deshalb mit variablen Raten und typischen Störeinflüssen umgehen.
Typische Engpässe und Besonderheiten bei DSL
- Sync-Rate als hartes Limit: Wenn Anwendungen den Upstream auslasten, entstehen sofort Queueing Delay und Jitter.
- Interleaving/FEC: Maßnahmen zur Fehlerkorrektur können Latenz erhöhen, auch wenn Paketverlust niedrig bleibt.
- CPE-Bufferbloat: Häufig der größte Praxisfaktor; große Puffer im Heimrouter erzeugen massive Latenzspitzen.
- ATM/PTM/Access-Overhead: Je nach DSL-Variante kann Overhead die effektive Nutzrate beeinflussen.
Best Practices für DSL-QoS
- Upstream-Shaping nahe am realen Sync: Shaping auf CPE oder Provider-Edge verhindert, dass große Puffer den Upstream „verstopfen“.
- Echtzeitklasse schützen: Voice/Audio in Low-Latency-Queue, strikt bevorzugt, aber begrenzt.
- Fairness durch Profile: Premium-Budgets pro Anschluss verhindern, dass ein Nutzer alle Ressourcen beansprucht.
- Monitoring für Latenzspitzen: DSL-Probleme zeigen sich oft als Jitter/Delay-Spikes, nicht als dauerhafter Loss.
Bei DSL ist es häufig sinnvoller, Bufferbloat zu bekämpfen und den Upstream sauber zu glätten, als aggressiv zu policen. Harte Drops verschlechtern Voice und Video oft stärker als eine kontrollierte Verzögerung in Best Effort.
QoS im HFC-Access: Priorisierung im Kabelnetz mit Shared Upstream
HFC (Hybrid Fiber Coax) ist stark geteilt: Viele Teilnehmer teilen sich Upstream- und Downstream-Kapazität in einem Segment. Deshalb ist Scheduling im Access besonders entscheidend. Qualitätsprobleme entstehen häufig im Upstream bei hoher Auslastung oder bei ungünstigem Traffic-Mix.
Typische HFC-Engpässe
- Shared Upstream: Viele Uploads, Cloud-Backups oder Videocalls konkurrieren; ohne QoS steigt Jitter schnell.
- Scheduling/Grant-Verfahren: Die Zuteilung von Sendezeit beeinflusst Latenz und Stabilität.
- Segmentauslastung: Lokale Peak-Zeiten (Abendstunden) führen zu Congestion und Drop-Spitzen.
- Rückkanal-Störungen: Interferenz und Noise im Rückkanal können Effektivrate senken und Retransmissions erhöhen.
Best Practices für HFC-QoS
- Service Flows/Traffic Profiles: Echtzeitdienste erhalten definierte Profile und Prioritäten, Best Effort bleibt fair.
- Audio priorisieren: UC-Audio/VoIP in die strengste Echtzeitklasse, mit klaren Limits.
- Video bevorzugen, aber nicht strict: Video in gewichtete Klasse mit Mindestanteilen, um Verdrängung zu vermeiden.
- Segmentierung und Kapazität: QoS hilft, aber Segmentauslastung muss langfristig durch Ausbau/Segmentierung gelöst werden.
HFC-QoS ist besonders effektiv, wenn die Provider-Seite klare Profile durchsetzt und die Echtzeitklassen nicht „überlaufen“ lässt. Wenn zu viele Teilnehmer gleichzeitig Video uplinken, muss das Netz nicht nur priorisieren, sondern auch Kapazität planen.
Trust Boundary im Access: Kundenmarkierungen kontrolliert nutzen
Im Access ist Trust eine zentrale Frage: Dürfen Kunden DSCP/CoS setzen und damit Premium-Behandlung erhalten? Ohne Regeln droht Missbrauch. Ein Provider-Blueprint sollte daher klare Trust-Modelle definieren:
- Untrusted: Markierungen werden neutralisiert; QoS basiert auf Provider-Policies, nicht auf Kundensignalen.
- Managed CPE: Markierungen werden akzeptiert, weil Konfiguration kontrolliert ist.
- Conditional Trust: Markierungen werden akzeptiert, aber pro Klasse profiliert (Policing/Remarking).
Für FTTH/DSL/HFC ist conditional trust häufig der pragmatische Weg: Premium ist möglich, aber nur innerhalb klarer Budgets.
Access-spezifische Klassen: Audio vor Video, Video vor Best Effort
Im Access-Netz ist die richtige Prioritätenhierarchie besonders wichtig, weil Engpässe nah am Nutzer auftreten. Eine robuste Reihenfolge ist:
- Real-Time Audio/Voice: höchste Priorität, Low Latency, strict priority mit Limit.
- Interaktives Video: bevorzugt, gewichtet, mit garantierten Anteilen.
- Content/Screen Sharing: bevorzugt, oft unter Video oder gleichgestellt.
- Business Critical: definierte Mindestbandbreite, wenn Produktmodell das vorsieht.
- Best Effort: fair, kontrollierte Puffer zur Vermeidung von Bufferbloat.
- Background: niedrigste Priorität.
Der entscheidende Punkt: Strict Priority darf im Access nie unlimitiert sein. Sonst kann eine falsche Markierung oder ein Sonderfall die gesamte Segmentqualität gefährden.
Bufferbloat im Access: Der häufigste Grund für „alles wird langsam“
Viele Nutzer erleben Probleme nicht als „Paketverlust“, sondern als plötzliche Latenzspitzen: Webseiten wirken zäh, Gaming laggt, Videocalls ruckeln. Ursache ist oft Bufferbloat – große Puffer in CPE oder Access-Knoten, die bei Upload-Last volllaufen.
- Symptom: hoher Ping/RTT während Uploads, Audioaussetzer bei Videocalls, ruckelnde Meetings.
- Ursache: Best Effort füllt Upstream-Queue, Echtzeitpakete warten zu lange.
- Gegenmittel: Upstream-Shaping, saubere Queue-Limits, Echtzeitklassen isolieren.
Für Provider ist das besonders wichtig, weil viele Beschwerden „Internet langsam“ auf Bufferbloat zurückgehen. QoS im Access ist damit auch ein Kundenzufriedenheits-Thema, nicht nur ein Engineering-Detail.
Monitoring im Access: Was Sie messen müssen, um QoS nachzuweisen
QoS im Access-Netz sollte messbar sein. Sinnvoll ist ein KPI-Set, das sowohl Netz- als auch Servicequalität abbildet:
- Queue-KPIs: Drops pro Klasse, Queue-Depth, Scheduler-Auslastung, Shaping-Rate, Policer-Hits.
- Link-KPIs: Upstream/Downstream-Auslastung, Fehler/CRC, Retransmissions (je nach Technologie).
- Latenz/Jitter: aktive Messungen über Access-Segmente, Perzentile statt nur Durchschnitt.
- Service-KPIs: MOS/R-Faktor bei Voice (wenn verfügbar), Freeze-Events bei Video (bei managed Services).
Ein praktischer Diagnoseansatz: Treten Qualitätsprobleme auf, prüfen Sie zuerst Upstream-Auslastung und Queueing Delay im Access, dann Drops in Echtzeitklassen und schließlich Segment-/Leitungsfehler.
Best Practices als Checkliste: QoS im Access-Netz sauber umsetzen
- Engpässe identifizieren: häufig Upstream und rate-limitierte Interfaces; dort QoS „scharf“ machen.
- Audio strikt schützen: eigene Echtzeitklasse, strict priority mit Limit, keine Drops.
- Video kontrolliert bevorzugen: gewichtete Klasse, Shaping an Engpässen, keine Video-Strict-Priority.
- Shaping statt harte Drops: besonders im Access, um Drop-Cluster zu vermeiden.
- Trust Boundary definieren: Markierungen nur kontrolliert akzeptieren; conditional trust mit Profilen.
- Mapping dokumentieren: DSCP/CoS (und ggf. interne Klassen) konsistent über Access und Aggregation.
- Bufferbloat reduzieren: Upstream-Shaping und Queue-Limits sind oft der größte QoE-Hebel.
- Monitoring etablieren: Drops in Echtzeitklassen und Latenzspitzen sofort sichtbar machen.
Häufige Fragen zu QoS bei FTTH, DSL und HFC
Welche Technologie profitiert am meisten von Access-QoS?
Alle drei profitieren, aber auf unterschiedliche Weise: DSL besonders durch Upstream-Shaping gegen Bufferbloat, HFC durch saubere Profilierung und Scheduling im Shared Upstream, FTTH durch konsistentes Klassenmapping und Schutz bei Aggregation/Shared-PON-Upstream.
Warum ist der Upstream so oft der Problemfall?
Weil Upstream-Kapazität meist knapper ist und Upload-Last (Cloud-Backups, Fotos, Video Calls) Queues füllt. Wenn Echtzeitpakete dann in Best-Effort-Queues warten, steigen Latenz und Jitter massiv.
Reicht es, DSCP zu setzen?
Nein. DSCP ist nur die Markierung. Entscheidend ist, dass Access-Knoten und CPE die Markierung in echte Queues, Scheduler und Shaping-Profile umsetzen. Ohne diese Umsetzung bleibt DSCP wirkungslos oder wird an Übergängen überschrieben.












