Planen Sie die IP-Adressierung für große oder hybride Cloud-Bereitstellungen.
→Verwenden Sie VPCs im benutzerdefinierten Modus. Weisen Sie nicht überlappende RFC 1918 CIDR-Blöcke (z.B. 172.16.0.0/12) zu, um Konflikte mit On-Prem-Umgebungen (oft 10.0.0.0/8) zu vermeiden. Verwenden Sie 100.64.0.0/10 für sekundäre GKE Pod-Bereiche.
Warum: Vermeidet IP-Konflikte mit On-Prem für zukünftige Hybridkonnektivität und bietet volle Kontrolle über den Adressraum, was für Skalierbarkeit und die Vermeidung kostspieliger Re-IP-Adressierungen unerlässlich ist.
Referenz↗
Bieten Sie Netzwerkisolation für mehrere Mandanten/Umgebungen (Entwicklung, Produktion) bei gleichzeitiger Zentralisierung der Netzwerkverwaltung und gemeinsamer Dienste.
→Verwenden Sie Shared VPC. Das Hostprojekt enthält die VPC, Subnetze, Firewalls und Interconnects. Mandanten/Umgebungen sind Serviceprojekte, die an das Hostprojekt angehängt sind.
Warum: Zentralisiert die Netzwerkadministration im Hostprojekt und delegiert gleichzeitig die Ressourcenverwaltung an Serviceprojekte. Skalierbarer und besser verwaltbar als VPC-Peering für viele Projekte innerhalb einer Organisation.
Referenz↗
Planen Sie die IP-Adressierung für große GKE-Cluster mit VPC-nativer Vernetzung.
→Planen Sie in einer VPC im benutzerdefinierten Modus drei CIDR-Bereiche: einen primären Bereich für Nodes, einen sekundären Bereich für Pods und einen weiteren für Services. Verwenden Sie für die Erweiterung nicht zusammenhängende Multi-Pod-CIDR.
Warum: VPC-native Vernetzung erfordert dedizierte, nicht überlappende sekundäre Bereiche für Pods und Services. Die richtige Dimensionierung verhindert die IP-Erschöpfung, ein häufiges und störendes Problem in großen Clustern.
Referenz↗
VMs ohne externe IPs müssen auf Google Cloud APIs zugreifen (z.B. Cloud Storage, BigQuery).
→Aktivieren Sie Private Google Access im Subnetz. Konfigurieren Sie optional DNS, um `*.googleapis.com` auf `restricted.googleapis.com` (199.36.153.4/30) aufzulösen, um VPC-SC zu erzwingen.
Warum: Leitet den Traffic zu Google APIs über das interne Google-Netzwerk, ohne öffentliche IPs auf VMs zu erfordern. Die Verwendung von `restricted.googleapis.com` fügt eine Ebene des Datenschutzes vor Datenexfiltration hinzu.
Referenz↗
Bieten Sie privaten Zugriff auf einen Dienst in Ihrer VPC für Consumer (Partner, andere Geschäftseinheiten), deren VPCs überlappende IP-Bereiche aufweisen.
→Veröffentlichen Sie den Dienst (über einen Internal Load Balancer) mithilfe eines Private Service Connect (PSC) Service-Anhangs. Consumer erstellen einen PSC-Endpunkt in ihrer VPC mit einer IP aus ihrem eigenen Bereich.
Warum: PSC entkoppelt Produzenten- und Consumer-Netzwerke und verwendet NAT, um überlappende IPs zu verwalten. Es bietet sicheren, dienstbasierten Zugriff, nicht vollständige Netzwerkkonnektivität wie VPC-Peering.
Referenz↗
Verbinden Sie eine große Anzahl (50+) von VPCs und/oder On-Prem-Standorten in einer Hub-and-Spoke-Topologie für zentralisierte Verwaltung und Konnektivität.
→Verwenden Sie Network Connectivity Center. Konfigurieren Sie den Hub und verbinden Sie VPCs als VPC Spokes und On-Prem-Verbindungen (VPN/Interconnect) als Hybrid Spokes.
Warum: NCC ist Googles verwaltete Lösung für große Hub-and-Spoke-Topologien, die die Routenverwaltung vereinfacht und über die 25-Peer-Grenze von VPC-Peering hinaus skaliert.
Stellen Sie einen GKE-Cluster bereit, bei dem Nodes und die Steuerungsebene zur Verbesserung der Sicherheit keine öffentlichen IP-Adressen haben.
→Erstellen Sie einen Private GKE Cluster. Dies weist Nodes nur interne IPs zu und erstellt einen privaten Endpunkt für die Steuerungsebene. Konfigurieren Sie autorisierte Netzwerke, um den Zugriff auf die Steuerungsebene einzuschränken.
Warum: Ein privater Cluster entfernt die Steuerungsebene und Nodes aus dem öffentlichen Internet, wodurch die Angriffsfläche erheblich reduziert wird. Der gesamte Verwaltungs- und Workload-Traffic bleibt im privaten Netzwerk.
Serverless-Workloads (Cloud Run, Functions) müssen auf Ressourcen (z.B. Cloud SQL, Memorystore) innerhalb einer VPC zugreifen.
→Erstellen Sie einen Serverless VPC Access Connector in der Ziel-VPC. Konfigurieren Sie den serverless-Dienst so, dass er diesen Connector für den ausgehenden Traffic verwendet.
Warum: Der Connector fungiert als Proxy, der serverless-Diensten (die in einer von Google verwalteten Umgebung ausgeführt werden) ermöglicht, Traffic unter Verwendung interner IPs in eine vom Kunden verwaltete VPC zu senden.
Eine Anwendung (z.B. HPC, Finanzhandel) erfordert die absolut niedrigste Netzwerklatenz zwischen einer Gruppe von VMs.
→Erstellen Sie eine kompakte Platzierungsrichtlinie und wenden Sie diese auf die VMs an. Verwenden Sie Maschinentypen mit Tier_1-Networking.
Warum: Die Kollokation von VMs im selben Netzwerk-Rack minimiert Netzwerk-Hops und physische Entfernung, wodurch die Latenz im Vergleich zur Standard-VM-Platzierung erheblich reduziert wird.
Implementieren Sie ein Zero-Trust-Sicherheitsmodell für Microservices, das starke Identität, verschlüsselte Kommunikation (mTLS) und feingranulare Autorisierung erfordert.
→Stellen Sie Anthos Service Mesh bereit. Aktivieren Sie automatisches mTLS für die gesamte Service-zu-Service-Kommunikation. Verwenden Sie `AuthorizationPolicy`-Ressourcen, um die erlaubte Kommunikation zu definieren.
Warum: Ein Service Mesh entkoppelt die Sicherheit vom zugrunde liegenden Netzwerk und bietet Workload-Identität, transparentes mTLS und L7-Autorisierung, die Kernpfeiler einer Zero-Trust-Architektur sind.