Case Study: Site-to-Site-VPN auf Cisco-Routern für 20 Filialen (Betrieb & Monitoring)

Ein Site-to-Site-VPN für 20 Filialen ist technisch schnell „online“, wird aber erst dann enterprise-tauglich, wenn Betrieb und Monitoring standardisiert sind: klare Templates, konsistente Parameter, eindeutige Naming-Konventionen, messbare Uptime/KPIs und ein Incident-Runbook mit Evidence Packs. Viele Multi-Branch-VPNs scheitern nicht an IPsec selbst, sondern an operativen Lücken: „SA up“ ohne Traffic-Nachweis, fehlende NTP-Zeitbasis, unvollständige Syslog-/SNMP-Sicht, unklare Failover-Logik und keine standardisierte Eskalation. Diese Case Study beschreibt ein praxisnahes Referenzszenario: Hub-and-Spoke Site-to-Site-VPN mit 20 Branches auf Cisco-Routern – inklusive Betriebsmodell, Monitoring-Design und wiederholbarer Troubleshooting-Methodik.

Ausgangslage: Anforderungen und typische Pain Points

Das Unternehmen benötigte stabile Anbindung der Filialen an zentrale Services (ERP, VoIP, Files, Auth). Zusätzlich sollten Incidents schnell triagierbar sein, ohne jedes Mal L3-Engineering zu benötigen.

  • 20 Filialen mit heterogenen WANs (DIA/Business Internet, teils Dual-ISP)
  • Zentrale Services im HQ/DC (DNS/AD/Applikationen)
  • Security: Managementzugriff nur über Bastion, AAA/Accounting
  • Monitoring: NOC-Dashboard für VPN Uptime und Degradation (RTT/Loss)
  • Compliance: Syslog zentral, NTP Pflicht, Evidence für Audits

Referenzarchitektur: Hub-and-Spoke mit Standardparametern

Für 20 Filialen wurde Hub-and-Spoke gewählt, weil es operational einfacher ist als Full Mesh: zentrale Policy, einfachere Skalierung und klare Ownership. Spokes sind standardisiert, Hubs redundant (wenn möglich).

  • Topologie: HQ/DC als Hub, Filialen als Spokes
  • Crypto: IKEv2/IPsec, standardisierte Proposals/Profiles
  • Routing: pro Branch standardisierte Remote-Netze, optional dynamisch (OSPF/BGP) über Tunnel
  • Segmentierung: ggf. VRF/ACL für Corp/Guest/OT

Standardisierung: Templates, Naming und Parameterkatalog

Skalierung wurde durch Templates erreicht: Baseline (Management/Logging/NTP/AAA) plus VPN-Modul. Jede Filiale erhielt nur Variablen (IPs, Subnetze, Peer-ID), keine manuelle Sonderkonfig.

  • Baseline: SSH/MGMT-Only, AAA/Accounting, NTP, Syslog, Monitoring
  • VPN-Modul: IKEv2/IPsec Profile, No-NAT Pattern, MTU/MSS Empfehlungen
  • Naming: IKEV2-<SITE>-TO-HQ, IPSEC-<SITE>-TO-HQ
  • Evidence: pro Branch standardisierte Pre-/Post-Checks

CLI: Beispiel Naming (operativ)

! IKEv2 profile: IKEV2-BR012-TO-HQ001
! IPsec profile: IPSEC-BR012-TO-HQ001

Betriebsmodell: Zuständigkeiten und Eskalationslogik

Der Betrieb wurde in L1/L2/L3 getrennt. L1 sammelt Evidence und prüft Standard-KPIs, L2 validiert Routing/VPN/NAT, L3 übernimmt Design- oder Bug-Themen.

  • L1: NOC-Dashboard, Alarmhandling, Quick Snapshot, Ticket-Evidence
  • L2: VPN- und Routing-Diagnose, Failover/Tracking prüfen
  • L3: Root-Cause-Analyse, Template-Änderungen, Preventive Actions
  • Provider: ISP-Eskalation anhand reproduzierbarer Evidence (RTT/Loss/Path-down)

Monitoring-Design: Tunnel-Uptime ist nicht gleich Service-Uptime

Das Monitoring wurde zweistufig aufgebaut: (1) Tunnelstatus, (2) Traffic-/Service-Nachweis. So werden „SA up, aber kein Traffic“ Fälle früh erkannt.

  • VPN Session KPI: IKE/IPsec up/down pro Branch
  • Traffic KPI: IPsec Bytes/Packets steigen (aktiv)
  • Service KPI: RTT/Loss zu HQ-Zielen (DNS/Jump Host) und optional extern
  • Stabilität KPI: Rekey/DPD Flaps, Anzahl Events pro Tag/Woche

CLI: VPN Monitoring Evidence

show crypto ikev2 sa
show crypto ipsec sa
show crypto session detail

IP SLA als Service-KPI: HQ-Erreichbarkeit statt nur „Internet“

Zusätzlich zum Tunnelstatus wurde ein IP SLA Ziel im HQ überwacht, um die End-to-End Erreichbarkeit zu messen. Das hilft bei WAN-Degradation und Path-down Fällen.

CLI: IP SLA für HQ-Ziel (Beispiel)

ip sla 20
 icmp-echo 10.0.0.10 source-interface GigabitEthernet0/0
 frequency 10
 timeout 1000
ip sla schedule 20 life forever start-time now

track 20 ip sla 20 reachability

CLI: SLA Evidence

show ip sla statistics
show track

UAT und Abnahme: „SA up“ plus Traffic Counter als Gate

Für jede Filiale wurde UAT standardisiert. Abnahme war erst möglich, wenn Traffic über den Tunnel nachweisbar war und zentrale Services erreichbar waren.

  • Test 1: Tunnel steht (IKE/IPsec SAs) und ist stabil
  • Test 2: Traffic Counter steigen (Bytes/Packets)
  • Test 3: zentrale Services erreichbar (DNS/HTTPS/ERP)
  • Test 4: Negativtest Segmentierung (z. B. Guest → Corp blockiert)

CLI: UAT Evidence Bundle (Copy/Paste)

show clock
show ntp status
show crypto ikev2 sa
show crypto ipsec sa
show crypto session detail
show ip route summary
show ip nat statistics
show logging | last 100

Operative Runbooks: Schnell triagieren, sauber eskalieren

Für den 24/7-Betrieb wurden Runbooks definiert, die sich auf wenige, reproduzierbare Checks stützen. Damit ist eine Eskalation an L2/L3 oder Provider datenbasiert.

  • Runbook A: VPN down (IKE/IPsec down)
  • Runbook B: VPN up, aber Service down (Traffic 0, Routing/No-NAT)
  • Runbook C: Degradation (Loss/RTT hoch, Flaps, Rekeys)
  • Runbook D: Post-Change Verification (nach Provider-/Router-Changes)

CLI: NOC Quick Snapshot für VPN (Copy/Paste)

terminal length 0
show clock
show ntp status
show ip interface brief
show ip route 0.0.0.0
show crypto ikev2 sa
show crypto ipsec sa
show ip sla statistics
show track
show logging | last 150
show processes cpu sorted

Typische Incidents und wie sie in der Case Study gelöst wurden

Bei 20 Filialen treten immer wieder die gleichen Muster auf. Durch Standardisierung konnten Ursachen schneller erkannt und Preventive Actions abgeleitet werden.

  • ISP Degradation: Loss/RTT steigt → IP SLA zeigt Degradation, Provider-Eskalation mit Evidence
  • SA up, no traffic: No-NAT/Route mismatch → Counter 0, Fix über Template-Validierung
  • Rekey/DPD Flaps: instabiler WAN-Pfad → Monitoring zeigt Flap-Frequenz, Thresholds angepasst
  • MTU/MSS Probleme: bestimmte Apps brechen → MSS-Clamp als Standardmaßnahme geprüft

CLI: MTU/MSS Evidence (bei App-Abbrüchen)

ping 1.1.1.1 size 1472 df-bit repeat 5
ping 1.1.1.1 size 1400 df-bit repeat 5
show interfaces | include MTU
show interfaces | include output drops|queue

Evidence Collection: Audit- und ops-taugliche Ablage

Pro Filiale wurden Evidence-Dateien standardisiert benannt und zentral abgelegt. Dadurch wurden Audits und RCA deutlich schneller.

  • Dateiname: SITE_DEVICE_TESTID_TIMESTAMP
  • Inhalt: show clock + relevante show-Outputs + Pass/Fail
  • Zusatz: Screenshot im SIEM/NOC (VPN down/Track down Events)
  • Retention: gemäß Policy (z. B. 90 Tage operational, 12 Monate audit)

Lessons Learned: Was den Betrieb von 20 VPN-Filialen robust macht

Die wichtigsten Erkenntnisse waren operativ geprägt: stabile Standards und messbare KPIs sind entscheidender als „mehr Features“.

  • Monitoring muss Traffic-Nachweis enthalten, nicht nur Tunnelstatus
  • NTP/Syslog/AAA sind Pflicht, sonst kein belastbarer Audit Trail
  • Templates reduzieren Drift und beschleunigen Rollouts/Hotfixes
  • Runbooks + Evidence Packs senken MTTR und verbessern Provider-Eskalationen
  • UAT als Gate verhindert „halb fertige“ Filialen im Produktivbetrieb

Konfiguriere Cisco Router & Switches und liefere ein Packet-Tracer-Lab (CCNA)

Hallo! Ich bin ein CCNA-Network Engineer und unterstütze Sie bei Cisco Router- und Switch-Konfigurationen – inklusive eines vollständigen Cisco Packet-Tracer-Labs (.pkt). Ideal für Lern-/Übungsszenarien, Validierung oder eine saubere Demo-Topologie.

Was ich (je nach Paket) umsetze

  • Switching: VLANs, Trunking (802.1Q), Port-Zuweisung, STP-Basics (PortFast/BPDU Guard wo sinnvoll)

  • Routing: Default/Static Routing oder OSPF, Inter-VLAN Routing (Router-on-a-Stick)

  • Services: DHCP (Pools/Scopes), NAT/PAT für Internet-Simulation

  • Optional Security: Basic ACLs und SSH-Hardening

  • Test & Verifikation: Ping/Traceroute + wichtige Show-Commands (mit erwarteten Ergebnissen)

Sie erhalten

  • Packet Tracer .pkt Datei

  • ✅ Saubere Konfigurations-Notizen pro Gerät

  • ✅ Verifikations-Checkliste + erwartete Outputs

  • ✅ Kurze Dokumentation (wie die Topologie funktioniert)

Bitte schreiben Sie mir vor der Bestellung, damit wir Scope, Packet-Tracer-Version, Geräteanzahl und Deadline klären.

Konfiguriere Cisco Router & Switches | Cisco Packet-Tracer-Labs. Finden Sie mich auf Fiverr.

Related Articles