CGNAT Placement ist im Provider-Umfeld eine Architekturentscheidung mit direktem Einfluss auf Kosten, Performance, Resilienz und Compliance. Carrier-Grade NAT ist nicht nur „IPv4 verlängern“, sondern eine stateful Servicefunktion, die Millionen bis Milliarden von Sessions verwaltet, Port-Budgets pro Subscriber verteilt und häufig umfangreiches Logging bereitstellen muss. Genau deshalb ist die Frage „Wo steht der CGNAT?“ zentral: Ein zu zentral platziertes CGNAT-Cluster kann Hairpinning und Backbone-Überlast erzeugen, ein zu verteiltes Design kann Betrieb und Logging-Pipelines unnötig komplex machen. Zusätzlich gilt: NAT ist ein Engpass-Kandidat, weil Kapazität nicht nur Bandbreite ist, sondern auch Sessions pro Sekunde, Paket pro Sekunde, Tabellen- und Memory-Headroom sowie die Performance der Logging-Infrastruktur. Ein professionelles topologisches Design behandelt CGNAT daher als eigene Edge-Domain: mit klaren Rollen (BNG/Subscriber Edge, CGNAT Edge, Internet/Peering Edge), deterministischen Pfaden für Symmetrie, echten Failure Domains, definierten N-1-Kapazitätsregeln und einer Logging-Architektur, die auch bei Peak-Events und Störfällen zuverlässig bleibt. Dieser Artikel zeigt, wie Sie CGNAT topologisch platzieren, um Capacity planbar zu skalieren und Logging betrieblich beherrschbar zu halten – ohne Komplexitäts-Explosion.
Warum CGNAT Placement mehr ist als „ein großer NAT-Cluster“
Viele Netze starten mit einem zentralen CGNAT-Cluster, weil das organisatorisch und betrieblich am einfachsten ist. Mit Wachstum zeigt sich jedoch schnell: CGNAT skaliert nicht linear über Bandbreite. Der kritische Engpass ist häufig der Zustand: Session-Tables, Port-Allocation, Logging-Events, CPU-Spitzen bei Connection-Setup und das Verhalten bei Failover. Wenn das Placement nicht zur Access- und Internet-Topologie passt, entstehen zudem unnötige Umwege: Traffic läuft zum NAT, dann wieder raus zum regionalen Exit – oder umgekehrt. Das kostet Transportkapazität und verschlechtert Performance.
- Statefulness: NAT erfordert konsistente Pfade oder replizierten State; das beeinflusst Routing und ECMP.
- Capacity ist mehrdimensional: Throughput, PPS, CPS, Sessions, Logging-Rate und Storage/Collector-Kapazität.
- Hairpinning: Falsche Kopplung von BNG, CGNAT und Internet Edge erzeugt unnötige Backbone-Last.
- Compliance/Forensik: Logging ist oft eine Pflichtfunktion; ohne robuste Pipeline wird NAT zum Betriebsrisiko.
Leitprinzip: CGNAT ist eine Edge-Service-Domain mit eigenen Failure Domains
Wie bei Firewalls oder DDoS-Scrubbing sollte CGNAT als separate Domain mit klaren Entry/Exit-Punkten geplant werden. Das reduziert Blast Radius, macht Policies auditierbar und erleichtert Kapazitäts- und Logging-Planung.
Topologische Grundmodelle: Zentral, regional, distributed
CGNAT kann – analog zu BNG-Placement – in drei grundlegenden Mustern umgesetzt werden. Welche Variante sinnvoll ist, hängt von Traffic-Geografie, Interconnect-Strategie, Betriebsreife und Compliance-Anforderungen ab. Häufig sind Hybridmodelle am effektivsten.
- Zentraler CGNAT: Wenige große Cluster in zentralen DCs/PoPs. Vorteil: einheitliche Plattform, einfacher Betrieb; Nachteil: große Failure Domain, Hairpinning, hoher Transportbedarf.
- Regionaler CGNAT: Cluster pro Region/Metro-Hub. Vorteil: bessere Latenz, weniger Hairpinning, kleinere Failure Domains; Nachteil: mehr Standorte, mehr Kapazitäts- und Logging-Planung.
- Distributed CGNAT: Sehr nah am Subscriber Edge/BNG. Vorteil: minimale Transportlast, beste Pfadkontrolle; Nachteil: hoher OPEX ohne starke Automatisierung, viele Logging-Endpunkte.
Praktischer Sweet Spot: Regionaler NAT gekoppelt an regionale Exits
Wenn Internet-Exits (Peering/Transit) ohnehin regionalisiert sind, ist regionaler CGNAT häufig topologisch sauber: Subscriber-Traffic wird lokal genattet und lokal ins Internet geführt. Das reduziert Backbone-Hairpinning und hält Failure Domains begrenzt.
CGNAT und Pfadsymmetrie: Warum Routing-Design Placement erzwingt
Viele NAT-Funktionen sind stateful. Das bedeutet: Der Rückverkehr muss entweder durch dieselbe NAT-Instanz laufen oder der NAT-State muss repliziert sein. In großen Netzen mit ECMP, SR-TE oder dynamischen Policies kann Asymmetrie schnell entstehen. Ein gutes CGNAT-Placement wird daher immer zusammen mit einem Pfadmodell entworfen.
- Deterministische Entry/Exit: Subscriber-Traffic wird an definierten Punkten in die NAT-Domain gelenkt.
- Symmetrie-Guardrails: Routing-Policies verhindern, dass Rückwege „woanders“ aus dem Internet kommen als sie rein gingen.
- ECMP-Disziplin: Hashing und Pfadsets müssen stabil sein; Remapping bei Failover kann Sessions stören.
- Failover-Policy: Definieren, ob Session-Reset bei NAT-Node-Ausfall akzeptabel ist oder nicht.
Ein Anti-Pattern: CGNAT verteilt, aber Internet Exit zentral (oder umgekehrt)
Wenn NAT und Exit nicht topologisch zusammenpassen, entstehen unvorhersehbare Pfade, Hairpins und schwer erklärbare Störungen. CGNAT-Placement muss mit Interconnect/Peering-Topologie und BNG-Placement abgestimmt werden.
Capacity Engineering: Throughput, Sessions, CPS und PPS als Designparameter
CGNAT-Kapazität ist nicht nur „Gbit/s“. Häufig limitieren andere Größen: neue Verbindungen pro Sekunde (CPS), Pakete pro Sekunde (PPS), gleichzeitige Sessions, und die Fähigkeit, im Failover eine Churn-Welle zu überleben. Dazu kommt Port-Allocation: zu kleine Port-Budgets erzeugen Kundeneffekte (Verbindungsprobleme), zu große Budgets verschwenden öffentliche IPv4-Ressourcen.
- Concurrent Sessions: State-Table-Größe und Memory-Headroom; Dual-Stack reduziert Druck, aber IPv4 bleibt oft dominant.
- CPS Peaks: Abendspitzen, App-Reconnects, Gaming, NAT-Timeouts, kurzzeitige Stürme nach Störungen.
- PPS/Microbursts: DDoS-artige Peaks oder kurze Burst-Phasen können Drops erzeugen, obwohl Throughput „ok“ aussieht.
- Port-Budget: Policies pro Subscriber-Klasse (Consumer vs. Business) und Schutz gegen Port-Exhaustion.
Ein vereinfachtes Kapazitätsmodell
NAT_Capacity=min(Throughput,PPS,CPS,Session_Table,Logging_Pipeline)
Das kleinste Glied entscheidet. Viele Netze planen nur Throughput und übersehen, dass Logging oder CPS die reale Grenze setzen.
Logging als Topologieproblem: Warum Placement die Log-Pipeline bestimmt
CGNAT-Logging ist häufig verpflichtend (z. B. zur Zuordnung von öffentlicher IP und Port zu einem Subscriber zu einem Zeitpunkt). Unabhängig von konkreten regulatorischen Rahmenbedingungen gilt technisch: Logging ist ein Hochvolumen-Datenstrom, der in Peaks stark ansteigen kann. Wenn Logging-Pfade instabil sind, kann CGNAT entweder Logs verlieren (Compliance-Risiko) oder unter Backpressure leidet der Datenpfad (Service-Risiko). Deshalb muss Logging topologisch geplant werden: nahe Collector-Standorte, redundante Pfade, definierte Buffering-Strategien und klare Drop-Policies.
- Collector Placement: Regionale Log-Collector reduzieren WAN-Transport und erhöhen Resilienz.
- Buffering: Lokale Buffer (auf NAT/Collector) fangen Peaks und kurzzeitige Störungen ab.
- Backpressure-Strategie: Klar definieren, was passiert, wenn Logging-Pipeline überlastet ist.
- Integrität: Zeitquelle (NTP/PTP) und manipulationsresistente Speicherung für Audit/Forensik.
Designregel: Logging darf den Datenpfad nicht „mit runterziehen“
Ein robustes Design entkoppelt Datenpfad und Logging so weit wie möglich: Logging ist kritisch, aber es darf nicht dazu führen, dass ein kurzer Collector-Ausfall die NAT-Weiterleitung destabilisiert. Das gelingt durch regionale Collector, Buffering und klare Lastgrenzen.
Regionale Log-Pipelines: Edge Collectors, Zentralisierung und Aufbewahrung
Viele Provider fahren ein zweistufiges Logging-Modell: Regionale Collectors sammeln Logs nahe am CGNAT-Cluster und replizieren sie kontrolliert in zentrale Systeme (Data Lake, SIEM, Archiv). Das reduziert Cross-Region-Last, begrenzt Failure Domains und macht Peaks beherrschbarer. Gleichzeitig müssen Retention, Zugriffskontrollen und Auditability sauber gestaltet werden.
- Edge Collectors: Nähe zum NAT reduziert Latenz und Verlustwahrscheinlichkeit der Log-Events.
- Zentrale Aggregation: Konsolidierung für Compliance, Reporting, Forensik und Security Analytics.
- Retention: Aufbewahrungsfristen und Storage-Kapazität müssen auf Event-Raten dimensioniert werden.
- Access Control: Logs sind sensibel; Zugriffe rollenbasiert, nachvollziehbar und minimal.
Observability für Logging ist Pflicht
Viele Teams überwachen NAT-Throughput, aber nicht die Log-Pipeline. In der Praxis muss Logging genauso überwacht werden: Event-Raten, Queue-Längen, Dropraten, Replikationsverzug und Storage-Headroom.
Redundanz und Failover: Was passiert bei NAT-Node-Ausfall?
Weil CGNAT stateful ist, ist Redundanz mehr als „zwei Geräte“. Sie müssen entscheiden, ob Session-Continuity gefordert ist. In vielen Consumer-Szenarien ist ein kurzer Session-Neuaufbau akzeptabel, solange er selten ist und nicht massenhaft gleichzeitig passiert. Für Business-/Wholesale-Produkte kann das anders aussehen. Placement beeinflusst auch Failover: Ein regionaler Cluster begrenzt die Anzahl betroffener Subscriber bei Ausfall.
- Active/Active Skalierung: Lastverteilung über mehrere NAT-Instanzen; erfordert stabile Hashing-/Steering-Regeln.
- Active/Standby: Einfacher, aber weniger effizient; Failover muss sauber getestet werden.
- Geo-Redundanz: Zweiter Standort pro Region oder definierter Cross-Region Fallback mit Kapazitätsreserve.
- Failover unter Last: Tests müssen Peakbedingungen berücksichtigen, sonst ist das Ergebnis wertlos.
Failover-Guardrail: Keine unkontrollierten Cross-Region Hairpins
Wenn ein regionaler NAT ausfällt, kann ein automatisches Ausweichen in eine andere Region sinnvoll sein – aber nur kontrolliert. Ohne Kapazitätsreserve und klare Policies führt das schnell zu Congestion und breitem Kundenimpact.
QoS, DDoS und Security: CGNAT als exponierte Servicefunktion
CGNAT ist nicht nur Access-Service, sondern auch Angriffsfläche. DDoS-Ereignisse, Scans und missbräuchliche Trafficprofile können CPS/PPS und Session-States belasten. Deshalb sollte CGNAT in eine Security Domain eingebettet sein: mit Control-Plane-Protection, DDoS-Runbooks, klaren Policing- und Rate-Limit-Strategien und sauberem Managementzugriff.
- Control-Plane Schutz: Rate-Limits und Guardrails gegen CPS/PPS-Überlast und State-Exhaustion.
- DDoS-Integration: Scrubbing/RTBH/FlowSpec-Patterns müssen mit NAT-Pfaden kompatibel sein.
- Management Isolation: Management-VRF/OOB, Jump-Zones, MFA und Audit für Adminzugriffe.
- Policy Hygiene: Standardisierte Subscriber-Profile (Port-Budgets, Timeouts, Limits) statt Sonderfälle.
Timeouts sind ein Kapazitätshebel – aber auch ein Risikohebel
Kurze Timeouts reduzieren State, können aber Anwendungen stören und CPS erhöhen (Reconnects). Lange Timeouts erhöhen State und Memory. Diese Parameter müssen pro Produktklasse standardisiert und mit Telemetry validiert werden.
Interconnect-Kopplung: CGNAT Placement und Internet Edge als Einheit betrachten
Der Internetpfad nach NAT ist ein wesentlicher Teil der Nutzererfahrung. Wenn NAT regionalisiert ist, sollte auch der Internet Exit sinnvoll regionalisiert sein, damit Traffic nicht unnötig durch das Backbone hairpint. Gleichzeitig müssen Peering/Transit-Policies und DDoS-Mechanismen mit NAT-Pfaden harmonieren. Besonders wichtig: Wenn Anycast-Services oder regionale Announcements genutzt werden, darf das nicht zu asymmetrischen NAT-Rückwegen führen.
- Regionale Exits: Reduzieren Latenz, Backbone-Last und Transitkosten, wenn Peering lokal verfügbar ist.
- Policy-Design: Local Preference und Communities steuern, welche Region welche Exits nutzt.
- Asymmetrie vermeiden: Inbound/Outbound-TE darf NAT-State nicht brechen.
- Störfallstrategie: Bei Peering-Ausfall darf NAT nicht unkontrolliert in entfernte Exits kippen.
Ein praktischer Blueprint: „BNG + CGNAT + Internet Edge“ pro Region
Viele Provider kapseln diese Rollen in einer regionalen Edge-Domain: Subscriber terminieren regional, NAT läuft regional, Exits/Peering sind regional, und Cross-Region-Fallback ist definiert. Das reduziert Hairpins und begrenzt Failure Domains.
Observability: Capacity und Logging nur dann beherrschbar, wenn messbar
CGNAT-Probleme sind oft „kurz und teuer“: Port-Exhaustion trifft einzelne Kunden, CPS-Spitzen verursachen sporadische Drops, Logging-Backpressure zeigt sich erst im Incident. Daher ist Telemetry Pflicht – und zwar nicht nur auf Throughput-Ebene, sondern auf State-, Event- und Pipeline-Ebene.
- NAT KPIs: Session-Count, CPS, PPS, Port-Pool-Auslastung, Drop-Reasons, Timeouts.
- Logging KPIs: Event-Raten, Queue-Längen, Dropraten, Replikationsverzug, Storage-Headroom.
- Pfad-KPIs: Latenz/Loss/Jitter vom BNG über NAT zum Exit, auch im Failover.
- Member/Queue Sicht: LAG-Member-Drops, Queue-Drops, Microbursts an Edge-Uplinks.
Evidence-by-Design: NAT-Entscheidungen rechtfertigen
Wenn Sie Placement-Änderungen durchführen (z. B. Regionalisierung), sollten Sie Vorher/Nachher-Metriken erheben: Transitkosten, Backbone-Last, Latenz, Drop-Raten, Logging-Stabilität. Das macht Architekturentscheidungen belastbar.
Typische Fallstricke und wie man sie vermeidet
- Zentraler NAT als nationale Failure Domain: Lösung: regionale Cluster, N+1, getestete Geo-Fallbacks.
- Logging-Pipeline überlastet: Lösung: regionale Collectors, Buffering, Pipeline-Observability und klare Backpressure-Strategie.
- Asymmetrische Pfade brechen Sessions: Lösung: deterministisches Steering, Symmetrie-Guardrails, abgestimmtes TE/ECMP.
- Port-Exhaustion: Lösung: produktklassenbasierte Port-Budgets, Telemetry, Timeouts sinnvoll, Missbrauchsdetektion.
- Failover erzeugt Congestion: Lösung: N-1 Headroom, QoS, kontrollierte Cross-Region-Policies.
- Zu viele Varianten: Lösung: wenige standardisierte NAT-Blueprints, Policy-as-Code, Ausnahmen streng steuern.
Praktische Leitlinien: CGNAT topologisch für Capacity und Logging designen
- Placement mit Exit koppeln: CGNAT und Internet Edge topologisch zusammen planen, Hairpins vermeiden.
- Regionalisieren, wenn möglich: Failure Domains verkleinern, Latenz verbessern, Backbone-Last reduzieren.
- Stateful Pfade stabil halten: Symmetrie-Guardrails, deterministisches Steering, ECMP/Hashing bewusst.
- Capacity multidimensional planen: Throughput, PPS, CPS, Sessions, Port-Budgets und Logging als gemeinsame Limits.
- Logging als eigene Architektur: regionale Collectors, Buffering, zentrale Aggregation, strikte Zugriffs- und Retention-Modelle.
- N-1 konsequent: Failover unter Peak testen, Cross-Region-Fallback kontrolliert und kapazitiv abgesichert.
- Security integrieren: Control-Plane-Protection, DDoS-Patterns, Management-Isolation, Jump-Zones.
- Telemetry verpflichtend: NAT-State, Pipeline-Health, Member/Queue-Drops, Pfad-KPIs – inklusive Trendanalyse.
- Blueprints statt Sonderfälle: wenige NAT-Profile, Policy-as-Code, Reviews, Wellen-Rollouts, Rollback-Kriterien.

