BGP im Telco Core ist ein zentrales Architekturthema, weil Border Gateway Protocol (BGP) in modernen Provider-Netzen längst nicht mehr nur „Internet-Routing“ bedeutet. Im Telco-Core dient iBGP häufig als Service-Control-Plane: Es verteilt VPN-Routen (L3VPN), EVPN-Informationen, SR/TE-Policy-Informationen, Service-Prefixe, Next-Hop-Informationen und bildet damit die Grundlage für skalierbare Multi-Tenant- und Multi-Region-Services. Gleichzeitig ist BGP im Core eine Komplexitätsmaschine, wenn es falsch aufgebaut wird: Ein Full-Mesh skaliert schlecht, Route-Leaks können großflächige Auswirkungen haben, und Route Reflectors (RR) werden bei unklarer Hierarchie schnell zu Hidden Single Points of Failure oder zu schwer analysierbaren Pfadentscheidern. Carrier-Grade Design bedeutet deshalb: iBGP, Route Reflectors und Hierarchie-Patterns so zu kombinieren, dass Pfade vorhersehbar bleiben, Failure Domains klein sind, Wartung planbar wird und Betriebskosten nicht explodieren. Dieser Artikel erklärt, wie iBGP im Telco Core typischerweise eingesetzt wird, welche RR-Topologien sich bewährt haben und wie Sie Hierarchien so gestalten, dass Wachstum und Stabilität zusammengehen.
Warum BGP im Telco Core so häufig eingesetzt wird
IGPs (OSPF/IS-IS) sind im Backbone perfekt, um Topologie zu verteilen und Kürzestpfade zu berechnen. BGP übernimmt dagegen die Service- und Policy-Ebene: Es kann große Mengen an Routen und Service-Informationen tragen, klare Import/Export-Regeln abbilden und Multi-Tenancy über VRFs/Address-Families skalieren. Im Telco Core ist BGP daher oft der „Klebstoff“ zwischen Service-Edges (PEs), EVPN/Overlay-Instanzen und regionalen PoPs.
- Skalierung: BGP ist für sehr große Routing-Informationen und Policies ausgelegt.
- Service-Separation: L3VPN/EVPN und andere Address-Families ermöglichen klare Trennung von Diensten.
- Policy-Steuerung: Präzise Kontrolle über Import/Export, Präfixfilter, Präferenz und Attribute.
- Multi-Region: Routenverteilung über Regionen und PoPs mit klaren Hierarchien möglich.
Ein wichtiges Prinzip: IGP für Transport, iBGP für Services
Carrier-Grade Netze bleiben stabil, wenn der Core-Transport im IGP bleibt und Service-Routing in iBGP gekapselt wird. Das reduziert Kontrollplan-Überraschungen: IGP-Änderungen werden topologisch behandelt, Service-Änderungen bleiben in BGP-Policies und Routenfamilien beherrschbar.
iBGP im Core: Full-Mesh ist die Theorie, Route Reflectors die Praxis
Im klassischen iBGP gilt: Damit alle Router alle Routen lernen, müsste man ein Full-Mesh aufbauen. In einem Telco-Core mit vielen PEs und PoPs ist das praktisch nicht skalierbar, weil die Anzahl der Sessions quadratisch wächst. Route Reflectors lösen das, indem sie iBGP-Routen zwischen Clients weitervermitteln. Dadurch wird BGP skalierbar – aber das Design muss die neue Hierarchie bewusst kontrollieren.
- Full-Mesh: Skaliert schlecht (Session-Explosion), wird höchstens in sehr kleinen Domänen genutzt.
- Route Reflectors: Reduzieren Sessions drastisch, sind Standard im Provider-Core.
- Hierarchie-Patterns: RR-Topologien bestimmen Pfadverhalten, Stabilität und Failure Domains.
Der Kerntrade-off: Weniger Sessions, mehr Designverantwortung
RRs bringen eine neue Wahrheit: Pfadentscheidungen und Propagation hängen stark von RR-Design, RR-Placement und Policy ab. In Telco-Umgebungen ist das okay – wenn Sie klare Patterns und Tests haben. Ohne diese entstehen schwer erklärbare „BGP-Mythen“ im Betrieb.
Route Reflector Basics: Rollen, Cluster und typische Stolpersteine
Ein Route Reflector nimmt iBGP-Routen von Clients entgegen und reflektiert sie an andere Clients. Das reduziert die Anzahl der notwendigen Sessions. Gleichzeitig müssen RRs so platziert werden, dass sie nicht zur großen Failure Domain werden und dass das Netz auch bei Ausfällen stabil bleibt.
- RR-Client: Router, der seine iBGP-Sessions primär zu RRs hält.
- RR-Cluster: Eine Gruppe von RRs, die gemeinsam einen Reflektionsbereich bildet.
- Redundanz: Mindestens zwei RRs pro Cluster, idealerweise mit physischer und logischer Diversität.
- Determinismus: Konsistente Policies und standardisierte RR-Placement-Regeln.
Häufige Fehlerquelle: „RRs sind nur Control Plane, die können zentral sein“
Control Plane Ausfälle sind im Telco-Core hochwirksam: Wenn RRs ausfallen oder instabil sind, kann das Service-Routing großflächig kippen. Deshalb sollten RRs wie kritische Infrastruktur behandelt werden: redundant, divers, gut überwacht und mit klaren Wartungsprozessen.
Hierarchie-Patterns im Telco Core: Welche RR-Topologien sich bewähren
Es gibt nicht „die eine“ RR-Topologie, aber es gibt Muster, die in Carrier-Netzen immer wieder funktionieren. Die Wahl hängt von Netzgröße, Multi-Region-Struktur, Service-Portfolios und Betriebsreife ab. Wichtig ist, dass das Pattern die Topologie widerspiegelt: Regionen, PoPs und Failure Domains sollten auch in der RR-Hierarchie sichtbar sein.
Pattern: Flat RR Cluster für kleine bis mittlere Domains
Ein oder mehrere RR-Paare reflektieren für alle Clients. Das ist einfach zu betreiben, solange die Domain nicht zu groß wird und die Latenz zwischen Clients und RRs akzeptabel bleibt.
- Vorteil: Einfach, wenige Cluster, klare Fehleranalyse.
- Risiko: Zentralisierung kann zu großen Failure Domains und höheren Latenzen in der Control Plane führen.
Pattern: Regionale RR Cluster mit Inter-Region-Hierarchie
Jede Region hat ein eigenes RR-Paar (oder RR-Cluster). Zwischen Regionen existiert eine definierte Hierarchie oder Peering-Struktur der RRs. Das passt gut zu Multi-Region-Topologien: Regionale Änderungen bleiben regionaler, und Control Plane Last verteilt sich.
- Vorteil: Bessere Skalierung, kleinere Failure Domains, regionale Wartbarkeit.
- Risiko: Höhere Komplexität bei Policy und bei Inter-Region Route-Leak-Kontrolle.
Pattern: Zwei-Ebenen RR Hierarchie (Core RRs + Regional RRs)
In sehr großen Netzen wird häufig eine zweistufige Hierarchie genutzt: Regionale RRs sammeln und reflektieren innerhalb der Region, Core-RRs koppeln Regionen. Das reduziert die Anzahl interregionaler Sessions und erlaubt klare Kontrollpunkte für Policies.
- Vorteil: Sehr skalierbar, kontrollierte Inter-Region-Propagation.
- Risiko: Core-RR-Ebene wird kritisch; benötigt starke Redundanz und Observability.
Address-Families und Services: Warum BGP im Core mehrere „Welten“ trägt
Im Telco-Core ist BGP oft nicht „ein Routingtable“, sondern mehrere parallele Kontrollplan-Welten: L3VPN-Routen (VRFs), EVPN-Routen (L2/L3-Services), Internet/Global-Routing (je nach Design), sowie ggf. zusätzliche Serviceinformation. Ein gutes Design trennt diese Welten klar: eigene Templates, klare Import/Export-Regeln und unterschiedliche Failure-Domain-Bewertungen.
- L3VPN: VRF-basierte Routenverteilung für Business- und Wholesale-Services.
- EVPN: Control-Plane für Multi-Tenant L2/L3-Services, oft in Metro/DCI/Service-Edges.
- Core Service Prefixes: Anycast-Services, Plattformdienste, ggf. Infrastrukturpräfixe mit klaren Policies.
- Separation: Policies und Filter pro Address-Family, nicht „alles in einem Topf“.
Designregel: Service-Separation ist auch RR-Separation
Wenn unterschiedliche Serviceklassen sehr unterschiedliche Anforderungen haben (z. B. Internet vs. EVPN vs. L3VPN), kann es sinnvoll sein, RR-Policies oder sogar RR-Cluster logisch zu trennen, um Blast Radius und Fehlerszenarien zu begrenzen. Der Leitgedanke bleibt: wenige Varianten, klare Patterns.
Next-Hop, IGP und „BGP folgt Transport“: Die Kopplung sauber gestalten
Ein häufiger Stabilitätshebel ist die klare Aufgabenteilung: Das IGP liefert Erreichbarkeit zu Loopbacks und Transportpfaden; BGP liefert Service-Routen. Damit BGP-Pfade nutzbar sind, müssen Next-Hops über das IGP zuverlässig erreichbar sein. In Telco-Backbones ist deshalb ein konsistenter Loopback-Plan, stabile IGP-Konvergenz und eine saubere Domänengrenze essenziell.
- Loopbacks als Anker: RR- und PE-Session-Endpunkte sollten auf stabilen Loopbacks basieren.
- IGP-Stabilität: Wenn das IGP flapt, flapt faktisch auch BGP – indirekt über Next-Hop-Unreachability.
- Summarization bewusst: IGP-Aggregation darf nicht dazu führen, dass Next-Hops im Fehlerfall „scheinbar erreichbar“ sind.
- Failure Handling: Control Plane Failover muss ebenso geplant werden wie Datenpfad-Failover.
Ein operativer Klassiker: „BGP ist up, aber Traffic geht nicht“
In solchen Fällen ist oft der Next-Hop oder der Transportpfad das Problem, nicht BGP selbst. Ein gutes Telco-Design verbindet daher BGP-Telemetry mit IGP/Transport-Telemetry und korreliert Ereignisse entlang von Failure Domains.
Resilienz: RR Redundanz, Diversity und Maintenance ohne Überraschungen
Route Reflectors müssen redundant sein – und zwar nicht nur „zwei Geräte“, sondern mit echter Diversität: getrennte Racks, getrennte Stromfeeds, möglichst getrennte Failure Domains. Außerdem muss Wartung planbar sein: Ein RR-Patch oder Upgrade darf nicht zu großflächigen Route-Churn-Events führen, die Services destabilisieren.
- RR-Paare pro Cluster: Mindestens zwei, idealerweise mit geografischer/Facility-Diversität.
- Client-Dual-Homing: Clients bauen Sessions zu beiden RRs auf, mit klarer Failover-Logik.
- Maintenance-Drain: Vor Wartung Routen/Peers kontrolliert „drainen“, nicht abrupt abschalten.
- Störfalltests: RR-Ausfall, Inter-Region-Link-Ausfall, PoP-Ausfall – regelmäßig messen.
Control Plane ist Teil des SLA
Viele SLA-Verletzungen entstehen, weil Control Plane Instabilität zu Datenpfadproblemen führt (z. B. durch langsame Reconvergence oder unerwartete Pfadänderungen). Deshalb gehört RR-Resilienz in die gleiche Kategorie wie Backbone-Resilienz: geplant, getestet, beobachtbar.
Policy-Design und Route Hygiene: Leak Prevention als Core-Disziplin
Im Telco-Core ist ein Route Leak eine der riskantesten Fehlerklassen. Wenn Routen in falsche VRFs oder Address-Families gelangen oder wenn Import/Export-Regeln nicht konsistent sind, können großflächige Auswirkungen entstehen. Ein gutes RR- und iBGP-Design setzt daher auf strenge Route Hygiene: Filter, Limits, Templates und eine Ausnahme-Governance.
- Präfixfilter: Was darf eine bestimmte Rolle überhaupt announcen?
- Max-Prefix/Guardrails: Schutz gegen unerwartete Route-Explosionen durch Fehlkonfiguration.
- Template-basierte Policies: Rollenbasierte Standardregeln statt kundenspezifischer Sonderlogik im Core.
- Ausnahmen kontrollieren: Owner, Begründung, Testplan, idealerweise Ablaufdatum.
Policy-as-Code: Der skalierende Ansatz
Wenn BGP-Policies wie Software behandelt werden (Versionierung, Reviews, Tests, Rollback), sinkt das Risiko unkontrollierter Changes. Gerade bei RRs ist das wichtig, weil kleine Policy-Änderungen sehr große Effekte haben können.
Observability: BGP-Hierarchien müssen erklärbar sein
Ein RR-Design ist nur dann betrieblich robust, wenn es transparent ist: Wo wurde eine Route gelernt? Über welchen RR-Pfad wurde sie reflektiert? Warum wurde ein bestimmter Next-Hop gewählt? Welche Events haben zu einer Pfadänderung geführt? Ohne diese Sichtbarkeit wird Troubleshooting teuer und langwierig, besonders in Multi-Region-Topologien.
- RR-Health: Session-Status, Update-Raten, CPU/Memory, Queueing im Control Plane.
- Route-Propagation: Zeit bis Route sichtbar ist, Path-Change-Events, Dampening-Indikatoren (wo relevant).
- Policy-Transparenz: Warum wurde ein Import/Export angewendet, welche Attribute wurden gesetzt?
- Korrelation: Transport-/IGP-Ereignisse mit BGP-Events verknüpfen.
Evidence-by-Design: BGP-Topologie als auditierbarer Bestandteil
Mit versionierten Templates, dokumentierten RR-Patterns, wiederkehrenden Failover-Tests und historisierten Telemetry-Daten entsteht Auditierbarkeit automatisch. Das reduziert nicht nur Auditaufwand, sondern verbessert die tägliche Betriebssicherheit.
Migration und Wachstum: RR-Topologien als wiederverwendbare Blueprints
Telco-Netze wachsen – neue Regionen, neue PoPs, neue Service-Edges. Wenn RR-Topologien nicht als Blueprint gedacht sind, entsteht Wildwuchs: ad-hoc zusätzliche RRs, Sonderpeering, unklare Cluster-Grenzen. Ein skalierbares Design definiert daher klare Regeln: Wann bekommt eine Region ein eigenes RR-Paar? Wie wird Inter-Region-Kopplung umgesetzt? Wie werden neue Address-Families eingeführt?
- Kapazitätsklassen: Kleine/mittlere/große Regionen mit definierten RR-Mustern.
- Inter-Region-Pattern: Standardisierte Kopplung zwischen regionalen und Core-RRs.
- Rollout-Wellen: Neue RRs und Policies in Phasen ausrollen, Blast Radius begrenzen.
- Exit-Strategien: Legacy-Designs schrittweise ablösen, statt parallel Varianten zu stapeln.
Ein einfaches Skalierungsmodell: RR-Komplexität wächst mit Varianten
OPEX∝Varianten×Änderungsrate
Wenn RR-Patterns standardisiert sind, bleibt OPEX auch bei Wachstum kontrollierbar. Wenn jede Region „eine Ausnahme“ ist, steigt OPEX überproportional.
Praktische Leitlinien für BGP im Telco Core
- RRs redundant und divers: Mindestens zwei pro Cluster, mit echter Facility- und Pfaddiversität.
- Hierarchie an Topologie koppeln: Regionale Cluster und Multi-Region-Patterns spiegeln reale Failure Domains.
- Service-Separation: Address-Families und Policies sauber trennen; Core bleibt transportorientiert.
- Routenhygiene: Filter, Limits, Templates und kontrollierte Ausnahmen.
- Maintenance-Design: Drain-Prozesse, Wellen-Rollouts, definierte Rollbacks.
- Observability als Pflicht: RR-Health, Propagation, Path-Change-Events, Transport-Korrelation.
- Blueprint-Ansatz: Wenige RR-Topologien, die wiederholt werden, statt ad-hoc Wachstum.

