FTTH Aggregation Topology: OLT, Aggregation, BNG/BRAS Design

Eine saubere FTTH Aggregation Topology ist für Glasfaseranbieter der entscheidende Faktor, ob ein FTTH-Netz wirtschaftlich skaliert, stabil betrieben werden kann und Kunden die erwartete Performance bekommen. FTTH (Fiber to the Home) ist nicht nur ein Bauprojekt im Feld, sondern vor allem eine Transport- und Servicearchitektur: Am Rand steht die OLT (Optical Line Terminal) als PON-Zugangsebene, dahinter folgt die Aggregation (Layer-2/Layer-3, je nach Design), und am Service-Ende steht der BNG/BRAS als Subscriber-Edge, der Sessions terminiert, IP-Adressen vergibt, Policies durchsetzt und den Verkehr in Richtung Internet, Peering und Services führt. Genau an diesen Übergängen entstehen die meisten Probleme, wenn Topologie und Rollen nicht sauber definiert sind: Broadcast-/ARP-Last, VLAN-Sprawl, unklare Failure Domains, zu große L2-Domänen, instabile PPPoE-Sessions, DHCP-Engpässe, CGNAT-Hairpins oder OPEX-Explosion durch zu viele Sonderfälle. Ein professionelles FTTH-Design arbeitet daher mit wiederverwendbaren Blueprints: klare OLT-Uplinks, definierte Aggregationshubs, standardisierte VLAN-/EVPN-/VRF-Modelle, redundante BNG/BRAS-Clusters, kontrollierte QoS-Profile und Telemetry, die Subscriber- und Linkverhalten messbar macht. Dieser Artikel erklärt die Designprinzipien von OLT über Aggregation bis BNG/BRAS – mit Blick auf Skalierung, Resilienz, Betriebskosten und saubere Security-/Management-Grenzen.

FTTH Transportkette verstehen: Von der Faser bis zur Session

FTTH unterscheidet sich von vielen anderen Access-Technologien dadurch, dass die physische Zugangsstruktur (PON) sehr stark auf Aggregation und Oversubscription ausgelegt ist. Das ist wirtschaftlich sinnvoll, stellt aber besondere Anforderungen an die Transporttopologie und an die Subscriber-Termination. In einem typischen FTTH-Design ist die OLT das Aggregationsgerät für viele ONTs/ONTUs (Kundenanschlüsse), während BNG/BRAS die logische „Einwahl“ in das Provider-Netz abbildet. Zwischen beiden liegt die Aggregationsebene, die Kapazität bündelt, Failure Domains strukturiert und Transport zum Service-Edge bereitstellt.

  • Access (PON/OLT): Viele Kundenports werden optisch gebündelt; Uplinks zur Aggregation sind häufig stark oversubscribed.
  • Aggregation: Bündelt OLT-Uplinks, trennt Domänen, setzt ggf. L2/L3-Policies und stellt Redundanz bereit.
  • BNG/BRAS: Terminiert PPPoE oder IPoE (DHCP), setzt Subscriber-Policies, QoS, Accounting und leitet Traffic weiter.
  • Core/Edge: Internet-Exits, Peering, CGNAT, Security Services, ggf. Wholesale/Bitstream.

Leitprinzip: Access ist „viele kleine“, BNG ist „wenige große“

OLT und Access sind breit verteilt und wachsen in der Fläche. BNG/BRAS ist konzentrierter und wächst in Kapazität und Session-Zahl. Die Topologie muss daher so gestaltet sein, dass Access-Wachstum nicht direkt zu Servicekomplexität im Kern führt.

OLT-Rolle und Uplink-Design: Bandbreite, Redundanz und Domänengrenzen

Die OLT ist nicht nur ein optischer Terminator, sondern ein wichtiger Topologiepunkt: Hier beginnen L2- und VLAN-Strukturen, hier entstehen erste Failure Domains, und hier entscheidet sich, wie sauber sich der Access später aggregieren lässt. OLT-Uplinks sollten in FTTH-Designs nicht „irgendwie“ in die Aggregation gehen, sondern über standardisierte Patterns: definierte Uplink-Bundles, klare LAG-/ECMP-Regeln, konsistente MTU-Profile und feste Service-VLAN-/QinQ-Schemata.

  • Uplink-Kapazität: Aus PON-Oversubscription folgt: Uplink-Reserve ist wichtiger als „theoretische PON-Rate“.
  • Redundanz: Dual-Uplink zu zwei Aggregationsknoten, idealerweise mit Facility-/Trassen-Diversität.
  • LAG/ECMP-Disziplin: Member-Visibility und Hashing-Entropie sind wichtig, um Hotspots zu vermeiden.
  • MTU-Profile: QinQ/Encapsulation-Overhead muss end-to-end passen, sonst entstehen Blackholes.

OLT-Failure Domain bewusst definieren

Eine OLT ist oft ein natürlicher Failure-Domain-Knoten: Fällt sie aus, sind viele Anschlüsse betroffen. Das ist nicht immer vermeidbar, aber es ist gestaltbar: Kleine OLT-Domänen, klare regionale Verteilung, robuste Strom- und Klima-Infrastruktur und ein Standard-Plan für Wartung und Austausch reduzieren Risiko und MTTR.

Aggregationsebene: Warum sie mehr ist als „ein Switch“

FTTH-Aggregation entscheidet über Skalierbarkeit und Betriebskosten. Hier werden tausende OLT-Uplinks zusammengeführt, und hier entscheidet sich, ob Sie ein beherrschbares L2-Design fahren oder ob Sie in VLAN-Sprawl, Broadcast-Last und unklaren Fehlerbildern untergehen. In modernen Designs ist Aggregation oft mehrstufig: Access Aggregation (nah am Feld) und Metro Aggregation (regionaler Hub), bevor der BNG/BRAS erreicht wird.

  • Access Aggregation: Nah an OLTs; Fokus auf kosteneffizienter Bündelung und klarer Uplinkstruktur.
  • Metro Aggregation: Regionale Hubs mit höherer Redundanz, QoS- und ggf. L3-Funktionalität.
  • Failure Domain Kontrolle: Ein Aggregationsknoten darf nicht unkontrolliert zu „Single Hub für alles“ wachsen.
  • OPEX-Hebel: Standardisierte Blueprints reduzieren Varianten und beschleunigen Entstörung.

Designentscheidung: L2-Aggregation bis BNG oder L3 früher?

Ein Kerntrade-off im FTTH-Design ist, wie weit Sie L2 führen. L2 bis zum BNG kann einfach wirken, erhöht aber Broadcast-/ARP-Last und die Größe der Fehlerdomänen. Früheres L3 (z. B. IP-Backhaul bis zum BNG) kann Skalierung und Stabilität verbessern, erfordert aber klare VRF- und Routing-Blueprints. In der Praxis sind Hybridmodelle verbreitet: L2 für die unmittelbare Subscriber-Zuordnung, L3 für Transportsegmente und klare Domänengrenzen.

VLAN-/QinQ-Modelle: Service-VLAN, Subscriber-VLAN und Skalierungsfallen

FTTH-Netze nutzen häufig VLAN-basierte Modelle, um Subscriber zu trennen und Produkte abzubilden. Dabei gibt es mehrere typische Schemata: pro OLT ein Service-VLAN, pro PON ein VLAN, oder QinQ mit Outer VLAN (S-VLAN) und Inner VLAN (C-VLAN). Die Wahl beeinflusst Tabellenlimits, Broadcast-Domänen, Provisioning-Komplexität und die Fähigkeit, Wholesale/Bitstream abzubilden.

  • Per-OLT VLAN: Einfacher Überblick, aber kann bei sehr vielen OLTs zu vielen VLANs führen.
  • Per-PON VLAN: Granularer, kann Fehlersuche erleichtern, erhöht aber VLAN-Zahl stark.
  • QinQ: Gute Skalierung für Wholesale/Mehrmandantenmodelle, erfordert konsequente MTU- und Tagging-Disziplin.
  • Broadcast-Last: Große L2-Domänen erhöhen ARP/ND und unbekannten Unicast – häufig unterschätzt.

Blueprint-Regel: VLAN-Strategie ist ein Control-Plane-Parameter

VLAN-Entscheidungen beeinflussen MAC-Tabellen, ARP/ND-State, CPU-Last und Fehlersuche. Eine „schnelle“ VLAN-Lösung wird später oft teuer. Deshalb sollten VLAN/QinQ-Modelle als standardisierte, dokumentierte Blueprints existieren.

BNG/BRAS: Subscriber-Termination als Herzstück des FTTH-Service

Der BNG/BRAS ist die logische Servicekante: Hier wird entschieden, wer online ist, welche IP er bekommt, welches Produktprofil gilt und wie Traffic ins Netz darf. Der BNG ist damit nicht nur ein Router, sondern eine Policy- und State-Plattform: Session-States, DHCP-Leases oder PPPoE-Sessions, QoS-Profile, Accounting, ggf. LI-Integration und oft auch Steering zu CGNAT oder Security Services. Topologisch muss der BNG hochverfügbar und skalierbar sein, weil er zentrale Betriebsauswirkungen hat.

  • Session-Skalierung: Millionen Sessions erfordern CPU/Memory-Planung, Tabellenlimits und klare Upgrade-Trigger.
  • Redundanz: N+1 BNG-Cluster pro Region, diverse Standorte, kontrolliertes Failover.
  • Policy Enforcement: Produktprofile, Rate Limits, QoS-Klassen, ggf. walled garden oder captive portal.
  • Service Integration: Steering zu CGNAT, Firewalls, DDoS-Services oder Wholesale-Übergaben.

BNG ist eine Failure Domain – und muss bewusst klein gehalten werden

Ein „einziger großer BNG“ wirkt effizient, ist aber riskant: Wartung und Fehler betreffen sofort große Kundenmengen. Regionale BNG-Cluster mit klaren Domains reduzieren Blast Radius und verbessern Wartbarkeit.

PPPoE vs. IPoE (DHCP): Auswirkungen auf Topologie und Betrieb

Ob Sie PPPoE oder IPoE nutzen, beeinflusst BNG-Design, Aggregation und Troubleshooting. PPPoE bringt eine explizite Session-Logik mit, ist im Betrieb gut nachvollziehbar, erzeugt aber zusätzlichen Overhead und kann bei großen Scale-Szenarien anspruchsvoll sein. IPoE (meist DHCP) ist oft „leichter“ im Datenpfad, erfordert aber saubere DHCP-Architektur, Relay-Design und Sicherheitsmechanismen gegen Spoofing.

  • PPPoE: Klare Sessions, gute Accounting-Modelle, aber zusätzliche Encapsulation und Session-Handling.
  • IPoE/DHCP: Weniger Overhead, oft gut für moderne CPEs, aber DHCP-Scale und Security (DHCP Snooping/Optionen) müssen sauber geplant werden.
  • Dual-Stack: IPv4/IPv6 Parallelbetrieb beeinflusst Adressierung, Policies, CGNAT-Strategien und MTU/MSS-Details.
  • Provisioning: Auth/AAA-Integration (RADIUS/DIAMETER) als kritische Abhängigkeit, die redundant sein muss.

Entscheidungskriterium: Betriebsmodell und Tooling

Die „beste“ Wahl hängt stark davon ab, welche Betriebs- und Automationsprozesse Sie haben. Wichtig ist weniger das Protokoll, sondern dass das Gesamtsystem (BNG, AAA, IPAM, Telemetry) konsistent und auditierbar funktioniert.

Aggregation bis zum BNG: L2-Scale, ARP/ND und Blackhole Prevention

Wenn Access-Aggregation große L2-Domänen bildet, steigt die Gefahr von ARP/ND-Stürmen, MAC-Table-Pressure und schwer erklärbaren Blackholes. Zudem werden Failoverpfade oft anders geroutet und können MTU- oder VLAN-Inkonsistenzen offenlegen. Ein robustes Design begrenzt L2-Scopes, nutzt klare Domänengrenzen und plant MTU end-to-end.

  • L2-Scopes begrenzen: Kleine Broadcast-Domänen pro Aggregationscluster, statt „alles L2 bis zum Core“.
  • ARP/ND-Management: Rate-Limits, Security Controls und Telemetry, um Storms früh zu erkennen.
  • MTU-Disziplin: QinQ/PPPoE/Encapsulation-Overhead budgetieren; Failoverpfade mitprüfen.
  • Störfalltests: Link-/Hub-Ausfall testen, ob Sessions stabil bleiben und ob keine Blackholes entstehen.

Ein klassischer Fehler: MTU nur im Normalpfad geprüft

Im Failover laufen Pakete oft über andere Aggregationslinks oder andere VLAN-Trunks. Wenn diese eine kleinere MTU oder andere Tagging-Profile haben, entstehen Drops, die wie „BNG-Probleme“ wirken, aber reine Transportinkonsistenzen sind.

BNG-Clusterdesign: Anycast Gateway, Redundanz und Session-Continuity

BNG-Redundanz ist mehr als „zwei Geräte“. Sie muss definieren, wie Kunden im Failover weiterarbeiten: Dürfen Sessions kurz neu aufbauen oder muss State erhalten bleiben? In vielen FTTH-Umgebungen ist ein kurzer Neuaufbau akzeptabel, solange er selten ist und keine große Churn-Welle erzeugt. Für Premium-/Business-Produkte können strengere Anforderungen gelten.

  • Active/Active vs. Active/Standby: Trade-off zwischen Effizienz und Einfachheit; entscheidend ist Predictability im Failover.
  • Regionalisierung: BNGs nahe an Aggregationshubs reduzieren Hairpinning und verbessern Latenz.
  • Session-Policy: Definieren, ob Failover Session-Reset auslösen darf; entsprechend Provisioning und Kundenerwartung steuern.
  • OPEX: Standardisierte Cluster-Blueprints reduzieren Wartungsrisiken und verkürzen Changes.

Designregel: Failover muss „boring“ sein

Ein gutes BNG-Design sorgt dafür, dass Ausfälle und Wartungen nicht zu massiven Reauth-/DHCP-Stürmen führen. Dazu gehören Headroom, gestaffelte Rollouts, klare Timings und Telemetry, die Churn sichtbar macht.

QoS-Topologie im FTTH: Wo Shaping und Policing hingehört

FTTH ist stark oversubscribed. Ohne QoS wird in Peakzeiten nicht nur „langsamer“, sondern unberechenbar. Ein sauberes QoS-Design ist topologisch: Marking am Ingress (wo Produktprofil bekannt ist), Shaping/Queuing an Engpässen (OLT-Uplinks, Aggregation-Uplinks, BNG-Uplinks) und Policing dort, wo Verträge durchgesetzt werden. Viele Provider implementieren Subscriber-Shaping am BNG, um Produkte sauber zu garantieren und Congestion kontrolliert zu machen.

  • Subscriber-Shaping: Häufig am BNG, weil dort pro Kunde/Profil gesteuert werden kann.
  • Queuing an Uplinks: Aggregationslinks brauchen konsistente Queue-Profile, um Microbursts zu beherrschen.
  • Bulk vs. Realtime: Hintergrundlast degradieren, Echtzeit-/Control stabil halten.
  • Telemetry: Drops pro Queue/Klasse, Member-Link-Sicht bei LAGs, Peak-Analyse statt Durchschnitt.

QoS ist ein Produktmerkmal

Wenn Sie Tarife verkaufen, verkaufen Sie implizit QoS-Verhalten in Engpässen. Ein Blueprint muss daher definieren, wie Produkte in Shaping/Queuing abgebildet werden und wie das im Störfall aussieht.

CGNAT und Internet Edge: Topologisch sinnvoll koppeln

In IPv4-dominierten Consumer-FTTH-Netzen ist CGNAT oft Teil des Standardpfads. Das wirkt auf die Topologie: CGNAT ist stateful und will Symmetrie; Internet-Exits (Peering/Transit) sollen regional sein, um Latenz und Kosten zu optimieren. Ein häufiges Anti-Pattern ist zentraler CGNAT bei regionalen Exits: Das erzeugt Hairpinning und unklare Pfade. Besser ist eine regionale Kopplung von BNG, CGNAT und Internet Edge oder klare, kontrollierte Transportpfade zwischen diesen Rollen.

  • Regionaler Exit: Peering/Transit nahe an Kundenschwerpunkten reduziert Backbone-Last und verbessert Performance.
  • Stateful Symmetrie: CGNAT-Pfade müssen stabil sein; ECMP/Hashing bewusst planen.
  • DDoS/Security: Edge-Services als eigene Domain; klare Steering-Mechanismen und Telemetry.
  • Observability: NAT-State, Port-Pool-Pressure, Session-Resets und Drops müssen sichtbar sein.

Designregel: Internetpfad ist Teil des Access-Produkts

FTTH-Kunden bewerten das Netz über Internet-Erlebnis. Deshalb sollten CGNAT/Peering/Transit nicht als getrennte Silos geplant werden, sondern als Ende-zu-Ende-Pfad vom BNG bis zum Interconnect.

Management und Security: OOB/In-Band, Jump-Zones und Domain-Trennung

FTTH-Access ist verteilt und damit anfällig für Betriebs- und Security-Risiken: Viele Standorte, viele Geräte, viele Zugänge. Ein professionelles Design trennt Management als eigene Domain (Management-VRF oder OOB), nutzt Jump-Zones mit MFA und Audit, und begrenzt die Angriffsfläche durch minimal notwendige Routen und strikte Policies.

  • Management-VRF/OOB: Separater Zugriffspfad für OLTs, Aggregation und BNGs; nicht über Kundennetze.
  • Jump-Zones: Verbindlicher Admin-Zugangspunkt, Session Recording und rollenbasierte Rechte.
  • Critical Dependencies: AAA/PKI/DNS/NTP/Logging redundant und regional erreichbar.
  • Control-Plane Schutz: Rate-Limits, CoPP, Guardrails gegen Storms und Fehlkonfigurationen.

Access-Security ist Betriebsfähigkeit

Wenn Security-Kontrollen den Betrieb blockieren, entstehen Workarounds. Gute FTTH-Designs machen Security praktikabel: klare Rollen, klare Domains, klare Tools und saubere Telemetry.

Observability und Kapazitätsplanung: Was in FTTH wirklich gemessen werden muss

FTTH-Netze kippen selten „langsam“. Häufig sind es Peaks, Microbursts, Member-Hotspots oder Session-Churn-Ereignisse. Deshalb braucht es Telemetry auf den richtigen Ebenen: OLT-Uplink-Auslastung, Aggregations-Queue-Drops, BNG-Session- und CPU/Memory-Headroom, DHCP/PPPoE-Eventraten, CGNAT-State und Interconnect-Qualität.

  • OLT KPIs: Uplink-Auslastung, Drops, Fehlerzähler, eventbasierte Peaks.
  • Aggregation KPIs: Queue-Drops pro Klasse, LAG-Member-Auslastung, Microburst-Indikatoren.
  • BNG KPIs: Session-Counts, Reauth-/DHCP-Raten, RIB/FIB-Pressure, CPU/Memory, Policy-Hit-Rates.
  • Service KPIs: Latenz/Loss zu wichtigen Zielen, Interconnect-Health, DDoS-Events, MTU-Blackhole-Indikatoren.

Evidence-by-Design: Wachstum planbar machen

Wenn Sie Growth-Trends für Sessions, Peak-Throughput und Queue-Drops historisieren, können Sie Upgrade-Trigger definieren, bevor Kunden betroffen sind. Das reduziert Notfallprojekte und erhöht Servicequalität.

Blueprint-Leitlinien: OLT, Aggregation und BNG/BRAS als skalierbares FTTH-Design

  • OLT-Uplinks standardisieren: Dual-Uplink, klare LAG/ECMP-Profile, konsistente MTU und Tagging-Regeln.
  • Aggregation hierarchisch bauen: Access Aggregation → Metro Hub, mit klaren Failure Domains und begrenzten L2-Scopes.
  • VLAN/QinQ bewusst wählen: Skalierung, Wholesale-Anforderungen und Tabellenlimits berücksichtigen; wenige Profile statt Sonderfälle.
  • BNG regionalisieren: N+1-Cluster, diverse Standorte, definierte Failover- und Session-Continuity-Politik.
  • PPPoE/IPoE konsequent: Protokollwahl an Betriebsmodell koppeln; AAA/DHCP skalieren und absichern.
  • QoS als Produktmodell: Subscriber-Shaping am BNG, Queuing an Engpässen, Störfallfähigkeit (N-1).
  • CGNAT/Internet Edge koppeln: Stateful Pfade symmetrisch halten, Hairpins vermeiden, Interconnect-Policies standardisieren.
  • Management & Security trennen: Management-VRF/OOB, Jump-Zones, Guardrails und auditierbare Changes.
  • Telemetry verpflichtend: OLT/Aggregation/BNG/CGNAT/Interconnect-KPIs, Peaks und Churn sichtbar machen.

Related Articles