Das Hauptkeyword „EVPN-MPLS vs. EVPN-VXLAN“ beschreibt eine Designentscheidung, die heute sowohl Provider-Netze als auch moderne Data-Center-Fabrics prägt: Welches Datenebenen-Transportverfahren soll die EVPN-Control-Plane (BGP) bedienen? EVPN (Ethernet VPN) bringt als „L2/L3 Control Plane“ Ordnung in die Welt der Multi-Tenant-Layer-2-Domänen, indem MACs und IPs kontrolliert über BGP verteilt werden, statt sie über Flooding und klassische Spanning-Tree-Mechaniken zu „erraten“. Die Frage ist jedoch, ob die Pakete im Transport über MPLS-Labels oder über VXLAN (UDP-basierte Encapsulation) laufen sollen. Beide Varianten können technisch dasselbe EVPN-Semantikmodell abbilden, unterscheiden sich aber deutlich in Betriebsmodell, Hardware-Anforderungen, MTU-Planung, OAM-Fähigkeiten und in der Art, wie Sie Fehlersuche und Change-Management strukturieren. In der Praxis entscheidet nicht „besser oder schlechter“, sondern „passender für Underlay, Organisation, Telemetrie und Serviceportfolio“. Dieser Artikel ordnet EVPN-MPLS und EVPN-VXLAN entlang typischer Provider/DC-Anforderungen ein, zeigt reale Auswahlkriterien und liefert ein praxistaugliches Entscheidungsraster, das in Produktion belastbar ist.
EVPN als gemeinsames Fundament: Control Plane bleibt gleich, Data Plane nicht
EVPN basiert auf BGP und definiert, wie MAC-Adressen, IP-Informationen und Service-Instanzen (z. B. VLAN/VNI, EVI) zwischen Provider Edges oder Data-Center-Leafs ausgetauscht werden. Kernidee: Statt unkontrolliertem Flooding lernen Endpunkte über signalisierte Routen. Das reduziert BUM-Last (Broadcast, Unknown Unicast, Multicast), verbessert Skalierbarkeit und macht Fehlerbilder deterministischer. Für die Grundlagen ist RFC 7432 (BGP MPLS-Based Ethernet VPN) die zentrale Referenz.
Wichtig ist: EVPN beschreibt primär die Control Plane und den Serviceaufbau. Die Datenebene – also wie Nutzdatenpakete zwischen VTEPs/PEs transportiert werden – kann unterschiedlich sein. Typisch sind zwei große Welten:
- EVPN-MPLS: EVPN-Routen steuern eine MPLS-Datenebene (Label Stack), häufig auf Provider-Backbones mit MPLS/SR-MPLS.
- EVPN-VXLAN: EVPN-Routen steuern eine VXLAN-Datenebene (UDP, VNI), typisch in Data-Center-Fabrics mit IP-Underlay.
EVPN-MPLS: Stärken im Provider-Backbone und in Multi-Domain-Szenarien
EVPN-MPLS spielt seine Vorteile dort aus, wo MPLS ohnehin „natürlicher“ Bestandteil des Netzes ist: in ISP/Telco-Backbones, in Metro-Netzen, in Wholesale-Transport und überall, wo Label-Switching, Traffic Engineering oder bestehende MPLS-OAM-Prozesse gesetzt sind. MPLS als Architektur ist in RFC 3031 beschrieben, das Label-Stack-Encoding in RFC 3032.
Operative Passform: Wenn MPLS bereits das „Betriebssystem“ des Netzes ist
- Bestehende Toolchain: NOC-Prozesse, OAM-Methoden und Skillsets sind oft auf MPLS ausgelegt (z. B. LSP Ping/Traceroute, FRR, SR-Policies).
- Service-Portfolio: L2VPN, L3VPN und EVPN lassen sich konsistent in einer MPLS-Servicefamilie betreiben.
- Traffic Engineering: MPLS-TE/SR-TE kann Servicepfade steuern, was bei kritischen SLAs (Latenz, Jitter) ein starkes Argument ist.
Skalierung und Failure Domains
Provider-Netze sind häufig hierarchisch: Access/Metro/Core, verschiedene Admin-Domänen, verschiedene Vendor-Inseln. EVPN-MPLS kann hier Vorteile bieten, weil MPLS bereits Mechaniken für Skalierung, Segmentierung und kontrollierte Failure Domains mitbringt (z. B. FRR-Strategien, SRLG-Planung, Label-Distribution, Core-Isolation). Das reduziert die Wahrscheinlichkeit, dass ein lokaler Fehler im Access als großflächiges Flooding-Problem im gesamten Netz sichtbar wird.
EVPN-VXLAN: Stärken in modernen Data-Center-Fabrics und Cloud-nahen Designs
EVPN-VXLAN ist heute der De-facto-Standard für L2/L3-Overlay-Fabrics in Data Centern: Leaf-Spine-Topologien, IP-Underlay, viele Tenants, schnelle Skalierung und standardisierte Automatisierung. VXLAN selbst ist in RFC 7348 beschrieben; die Einordnung von EVPN als Control Plane für VXLAN findet sich u. a. in RFC 8365.
Operative Passform: Wenn das Underlay bereits „IP first“ ist
- Einfaches Underlay-Modell: Oft genügt ein stabiles IGP oder eBGP im Underlay; das Overlay (EVPN) liefert Tenant-Semantik.
- Automatisierung: VXLAN-Fabrics werden häufig über Templates/Intent betrieben; EVPN-Routen sind gut in CI/CD-Workflows integrierbar.
- Anycast Gateway und IRB: Verteilte Default Gateways (Anycast) und integriertes Routing (IRB) sind in DC-Designs üblich und mit EVPN-VXLAN verbreitet.
Skalierung in vielen kleinen Segmenten
VXLAN nutzt VNIs statt VLANs und skaliert damit deutlich über klassische L2-Domänen hinaus. In der Praxis ist nicht „VNI-Anzahl“ die harte Grenze, sondern Hardware-Tabellen (MAC/IP, ARP/ND, Route-Scale), Telemetrie- und Policy-Design. EVPN hilft, diese Skalierung kontrollierbarer zu machen, weil MAC/IP-Learning signalisierungsbasiert erfolgt.
Der Kernunterschied in der Datenebene: MPLS-Labels vs. VXLAN-Encapsulation
Die technische Semantik von EVPN ist ähnlich, aber die Kapselung und damit die Auswirkungen auf MTU, Hashing, QoS und Troubleshooting unterscheiden sich deutlich.
MTU und Overhead: VXLAN braucht konsequente Planung
VXLAN kapselt Ethernet über UDP/IP. Dadurch steigt die Paketgröße, was ohne angehobene MTU zu Fragmentierung oder Drops führt. MPLS hat ebenfalls Overhead (Label Stack), ist aber in vielen Provider-Backbones bereits in der MTU-Planung berücksichtigt. Ein vereinfachtes Overhead-Modell kann so dargestellt werden:
MTU_underlay ≥ MTU_payload + Overhead
Für VXLAN ist der Overhead typischerweise „Ethernet + IP + UDP + VXLAN“. Für MPLS ist es „Label Stack“. In der Praxis ist die genaue Zahl weniger wichtig als die Disziplin: VXLAN-Fabrics sollten Underlay-MTU konsequent auf „Jumbo“ setzen (netzweit, nicht nur punktuell), sonst entstehen schwer zu diagnostizierende „Hidden Outages“ (z. B. nur bestimmte Flows oder nur bestimmte VM-Typen betroffen).
ECMP und Hashing
- EVPN-VXLAN: UDP-Header erleichtert ECMP-Hashing (5-Tuple), was in Leaf-Spine-Designs vorteilhaft ist.
- EVPN-MPLS: ECMP ist ebenfalls möglich, hängt aber stärker von Plattformfähigkeiten (Entropy Labels, Label-Stack-Handling) und vom eingesetzten MPLS-Design ab.
Wenn Ihr Netz stark auf ECMP-Lastverteilung angewiesen ist (typisch im DC), ist VXLAN oft operativ „einfacher“. Wenn Ihr Provider-Netz hingegen deterministische Pfade (TE/SR-Policies) bevorzugt, kann MPLS die bessere Integrationsfläche sein.
OAM und Troubleshooting: Was ist in Produktion schneller nachweisbar?
In Produktionsnetzen zählt nicht nur „es funktioniert“, sondern „ich kann es in Minuten beweisen“. Hier trennen sich die Philosophien oft entlang bestehender Toolchains.
EVPN-MPLS: MPLS-OAM ist häufig etabliert
- LSP Ping/Traceroute: Sehr nützlich zur Pfadvalidierung und Datenebenenprüfung (z. B. RFC 4379 und das Update RFC 8029).
- FRR-Mechaniken: Viele Provider haben erprobte Prozesse für Fast Reroute und nachgelagerte Konvergenz.
- Service-zu-Core-Korrelation: MPLS-LSPs lassen sich gut in Tickets und RCAs referenzieren (Label/Path-IDs, Tunnel-IDs).
EVPN-VXLAN: Overlay-Troubleshooting erfordert gute Fabricsicht
- VTEP-Perspektive: Sie debuggen häufig entlang „VTEP↔VTEP“ und müssen Underlay- und Overlay-Zustände sauber korrelieren.
- Overlay-spezifische Fehlerbilder: z. B. VNI-Mapping falsch, Anycast-Gateway Inkonsistenz, ARP/ND-Suppression falsch getuned.
- Return-Path-Probleme: In IP-Underlays kann asymmetrisches Routing die Interpretation von Traces erschweren, wenn Telemetrie nicht konsistent ist.
In beiden Welten gilt: Ohne standardisierte Telemetrie pro Layer wird EVPN-Fehlersuche schnell „religionsartig“. Mit sauberer Observability (Interface/Queue, BGP EVPN Route Types, MAC/IP-Table Health, Underlay-IGP/BGP Health) wird sie hingegen sehr deterministisch.
Control Plane im Detail: Route Types, MAC/IP Distribution und BUM-Handling
EVPN arbeitet mit definierten Route Types (z. B. MAC/IP Advertisement, Inclusive Multicast Ethernet Tag). Die Control Plane ist in EVPN-MPLS und EVPN-VXLAN konzeptionell ähnlich, die Datenebene für BUM-Traffic (Broadcast/Unknown Unicast/Multicast) unterscheidet sich aber in der Umsetzung.
Replication vs. Multicast: BUM sauber entscheiden
- Ingress Replication: Einfacher zu deployen, kann aber bei viel BUM skaliert schlecht (Kopien pro Remote-VTEP/PE).
- Underlay Multicast: Effizienter bei hohem BUM, aber operativ komplexer (Multicast-Routing, PIM/IGMP, Failure Domains).
In Data Centern wird häufig Ingress Replication bevorzugt, weil „Multicast im Underlay“ zusätzliche Komplexität bringt. Provider können hingegen Multicast-basiertes BUM-Handling attraktiver finden, wenn sie ohnehin Multicast-Expertise und Tooling besitzen.
QoS, SLA und Performance: Welche Datenebene passt zu welchen Kundenanforderungen?
Provider-Designs werden oft von SLAs getrieben: definierte Latenz, definierter Jitter, definierte Wiederherstellungszeiten und klare Fault Domains. Data Center Designs sind häufig throughput- und scale-getrieben, mit anderen Failure- und Traffic-Profilen.
Wenn TE und deterministische Pfade wichtig sind
EVPN-MPLS ist oft die naheliegende Wahl, wenn Sie Traffic Engineering, SR-Policies oder streng definierte Pfade pro Service nutzen möchten. Das gilt besonders für Wholesale-Backbones, Metro-Transport und Netze, in denen ein Overlay nicht nur „LAN-Erweiterung“, sondern ein SLA-Produkt ist.
Wenn East-West-Scale und ECMP-Effizienz dominieren
EVPN-VXLAN passt hervorragend zu Leaf-Spine-Fabrics, bei denen ECMP, große Parallelität und schnelle Skalierung im Vordergrund stehen. Hier ist das Ziel meist nicht „Pfad fixieren“, sondern „viele Pfade effizient nutzen“.
Hardware- und Feature-Matrix: Was Sie vor der Entscheidung realistisch prüfen müssen
Viele Projekte scheitern nicht am Konzept, sondern an impliziten Annahmen: „Das kann unsere Plattform bestimmt.“ In der Praxis sollten Sie vor einer Entscheidung eine klare Feature-Matrix erstellen.
Checkliste für EVPN-MPLS
- Label-Scale: Wie viele Labels pro PE/Linecard sind realistisch (inkl. Services und Transport)?
- OAM-Integration: LSP Ping/Traceroute, event correlation, FRR-Telemetrie.
- Interworking: EVPN mit L3VPN/L2VPN, ggf. AToM/Pseudowires, Migration/Koexistenz.
- TE/SR-Fähigkeiten: Wenn TE/SR Designziel ist, muss die Hardware es sauber unterstützen.
Checkliste für EVPN-VXLAN
- MTU-End-to-End: Underlay-Jumbo konsequent, inklusive alle Links (Leaf-Spine, Border, DCI).
- VTEP-Scale: MAC/IP tables, ARP/ND suppression, anycast gateway scale, VRF scale.
- Telemetry-Fähigkeiten: per-VNI, per-VRF, per-queue counters; Flow-Visibility.
- DCI/Border-Design: Wie wird VXLAN über Standorte oder in Provider-Transport verlängert (EVPN DCI, gateways)?
Typische Einsatzmuster: Wann EVPN-MPLS sinnvoller ist
- Provider-Core/Metro mit bestehendem MPLS/SR-MPLS: Wenn MPLS bereits Standard ist, minimiert EVPN-MPLS organisatorische Reibung.
- Wholesale-Services mit strikter OAM- und SLA-Anforderung: MPLS-OAM und TE-Tooling sind häufig besser operationalisiert.
- Multi-Domain-Transport: Wenn mehrere Domänen/Technologien gekoppelt werden müssen, kann MPLS als „Transport-Backbone“ einfacher sein.
- Koexistenz mit L3VPN/L2VPN: Einheitliches Service-Portfolio mit konsistentem Datenebenenmodell.
Typische Einsatzmuster: Wann EVPN-VXLAN sinnvoller ist
- Modernes Data Center (Leaf-Spine, IP-Underlay): VXLAN passt direkt zur Architektur und Automatisierung.
- Hohe East-West-Last und viele Tenants: Effiziente ECMP-Nutzung und flexible Segmentierung über VNIs.
- Cloud-nahe Betriebsmodelle: Template/Intent-getriebener Betrieb, schnelle Provisionierung, standardisierte Fabric-Patterns.
- Komplexitätsvermeidung im Underlay: Kein MPLS-Stack im Core nötig, wenn IP ohnehin vorhanden und stabil ist.
Hybrid-Realität: EVPN-MPLS und EVPN-VXLAN in einem End-to-End-Service
Viele Organisationen betreiben nicht „entweder oder“, sondern „beides“: EVPN-VXLAN im Data Center, EVPN-MPLS im Provider-Transport oder Metro-Backbone. Das ist oft sinnvoll, weil es jeweils die Stärken der Domäne nutzt. Entscheidend ist dann das Interworking an Border-Elementen:
- Klare Rollen: DC Fabric (VXLAN) endet an Border Leafs/Gateways, Provider-Transport (MPLS) beginnt am PE.
- Saubere Policy-Übersetzung: VRF/VNI-Policies müssen in MPLS-Kontexte (z. B. EVIs, Labels) konsistent gemappt werden.
- Fehlerdomänen trennen: Ein VXLAN-Problem soll nicht automatisch MPLS-Backbone-Tickets erzeugen und umgekehrt.
In solchen Designs ist es besonders wichtig, ein gemeinsames Monitoring- und Ticketing-Schema zu etablieren, das Underlay/Overlay sauber trennt und dennoch schnell korrelierbar macht.
Entscheidungsraster für Produktion: Die drei Fragen, die wirklich zählen
Damit die Wahl nicht an Einzelmeinungen hängt, hilft ein strukturiertes Raster. Drei Fragen sind in der Praxis besonders belastbar:
- Welches Underlay ist „natürlich“ und stabil? MPLS/SR-MPLS im Provider-Core vs. IP-Leaf-Spine im DC.
- Welche Betriebsprozesse sind reif? OAM, Telemetrie, Incident-Playbooks, Change-Validierung – passt das Tooling zur Datenebene?
- Welche SLOs sind kritisch? TE/Determinismus vs. ECMP/Scale – und wie messen Sie Loss/Jitter/Convergence in beiden Modellen?
Wenn Sie diese Fragen ehrlich beantworten, ergibt sich die Wahl häufig klarer als über Feature-Listen. Besonders wichtig ist die Messbarkeit: Ein Design, das sich nicht schnell verifizieren lässt, ist in großen Netzen langfristig teurer als ein Design, das „theoretisch eleganter“ wirkt.
Outbound-Links für Standards und vertiefende Informationsquellen
- EVPN Grundlagen und Route Types (RFC 7432)
- EVPN und Overlay-Netze (RFC 8365) für EVPN-VXLAN-Orientierung
- VXLAN Encapsulation (RFC 7348) für VXLAN-Header, VNI und UDP-Kapselung
- MPLS Architecture (RFC 3031) für MPLS-Grundlagen im Provider-Transport
- MPLS Label Stack Encoding (RFC 3032) für Label-Stack und TTL-Aspekte
- MPLS LSP Ping/Traceroute (RFC 4379) für produktive Path-Validierung in MPLS-Netzen
Cisco Netzwerkdesign, CCNA Support & Packet Tracer Projekte
Cisco Networking • CCNA • Packet Tracer • Network Configuration
Ich biete professionelle Unterstützung im Bereich Cisco Computer Networking, einschließlich CCNA-relevanter Konfigurationen, Netzwerkdesign und komplexer Packet-Tracer-Projekte. Die Lösungen werden praxisnah, strukturiert und nach aktuellen Netzwerkstandards umgesetzt.
Diese Dienstleistung eignet sich für Unternehmen, IT-Teams, Studierende sowie angehende CCNA-Kandidaten, die fundierte Netzwerkstrukturen planen oder bestehende Infrastrukturen optimieren möchten. Finden Sie mich auf Fiverr.
Leistungsumfang:
-
Netzwerkdesign & Topologie-Planung
-
Router- & Switch-Konfiguration (Cisco IOS)
-
VLAN, Inter-VLAN Routing
-
OSPF, RIP, EIGRP (Grundlagen & Implementierung)
-
NAT, ACL, DHCP, DNS-Konfiguration
-
Troubleshooting & Netzwerkoptimierung
-
Packet Tracer Projektentwicklung & Dokumentation
-
CCNA Lern- & Praxisunterstützung
Lieferumfang:
-
Konfigurationsdateien
-
Packet-Tracer-Dateien (.pkt)
-
Netzwerkdokumentation
-
Schritt-für-Schritt-Erklärungen (auf Wunsch)
Arbeitsweise:Strukturiert • Praxisorientiert • Zuverlässig • Technisch fundiert
CTA:
Benötigen Sie professionelle Unterstützung im Cisco Networking oder für ein CCNA-Projekt?
Kontaktieren Sie mich gerne für eine Projektanfrage oder ein unverbindliches Gespräch. Finden Sie mich auf Fiverr.

