Planifier l'adressage IP pour les déploiements à grande échelle ou hybrides dans le cloud.
→Utilisez des VPC en mode personnalisé. Allouez des blocs CIDR RFC 1918 non chevauchants (par exemple, 172.16.0.0/12) pour éviter les conflits avec les systèmes sur site (souvent 10.0.0.0/8). Utilisez 100.64.0.0/10 pour les plages secondaires de pods GKE.
Pourquoi: Évite les conflits d'IP avec les systèmes sur site pour une future connectivité hybride et offre un contrôle total sur l'espace d'adressage, ce qui est essentiel pour la mise à l'échelle et pour éviter des coûts de ré-adressage IP élevés.
Référence↗
Fournir une isolation réseau pour plusieurs locataires/environnements (développement, production) tout en centralisant la gestion du réseau et les services partagés.
→Utilisez le VPC partagé. Le projet hôte contient le VPC, les sous-réseaux, les pare-feu et les interconnexions. Les locataires/environnements sont des projets de service attachés au projet hôte.
Pourquoi: Centralise l'administration réseau dans le projet hôte tout en déléguant la gestion des ressources aux projets de service. Plus évolutif et gouvernable que le peering de VPC pour de nombreux projets au sein d'une organisation.
Référence↗
Planifier l'adressage IP pour les grands clusters GKE utilisant la mise en réseau native VPC.
→Dans un VPC en mode personnalisé, prévoyez trois plages CIDR : une plage primaire pour les nœuds, une plage secondaire pour les Pods et une autre pour les Services. Pour l'expansion, utilisez un CIDR multi-pod non contigu.
Pourquoi: La mise en réseau native VPC nécessite des plages secondaires dédiées et non chevauchantes pour les pods et les services. Un dimensionnement approprié évite l'épuisement des adresses IP, un problème courant et perturbateur dans les grands clusters.
Référence↗
Les VM sans IP externes doivent accéder aux API Google Cloud (par exemple, Cloud Storage, BigQuery).
→Activez l'accès privé à Google sur le sous-réseau. Vous pouvez également configurer le DNS pour résoudre `*.googleapis.com` vers `restricted.googleapis.com` (199.36.153.4/30) afin d'appliquer VPC-SC.
Pourquoi: Dirige le trafic vers les API Google via le réseau interne de Google sans nécessiter d'adresses IP publiques sur les VM. L'utilisation de `restricted.googleapis.com` ajoute une couche de protection contre l'exfiltration de données.
Référence↗
Fournir un accès privé à un service de votre VPC pour les consommateurs (partenaires, autres unités commerciales) dont les VPC ont des plages IP qui se chevauchent.
→Publiez le service (via un équilibreur de charge interne) à l'aide d'une attache de service Private Service Connect (PSC). Les consommateurs créent un point de terminaison PSC dans leur VPC avec une IP de leur propre plage.
Pourquoi: PSC découple les réseaux du producteur et du consommateur, en utilisant la NAT pour gérer les IP qui se chevauchent. Il fournit un accès sécurisé au niveau du service, et non une connectivité réseau complète comme le peering de VPC.
Référence↗
Connecter un grand nombre (50+) de VPC et/ou de sites sur site dans une topologie en étoile pour une gestion et une connectivité centralisées.
→Utilisez Network Connectivity Center. Configurez le hub et attachez les VPC en tant que branches VPC et les connexions sur site (VPN/Interconnect) en tant que branches hybrides.
Pourquoi: NCC est la solution gérée par Google pour les topologies en étoile à grande échelle, simplifiant la gestion des routes et permettant d'aller au-delà de la limite de 25 pairs du peering de VPC.
Déployer un cluster GKE où les nœuds et le plan de contrôle n'ont pas d'adresses IP publiques pour une sécurité renforcée.
→Créez un cluster GKE privé. Cela attribue uniquement des IP internes aux nœuds et crée un point de terminaison privé pour le plan de contrôle. Configurez des réseaux autorisés pour restreindre l'accès au plan de contrôle.
Pourquoi: Un cluster privé retire le plan de contrôle et les nœuds de l'internet public, réduisant considérablement la surface d'attaque. Tout le trafic de gestion et de charge de travail reste sur le réseau privé.
Les charges de travail sans serveur (Cloud Run, Functions) doivent accéder à des ressources (par exemple, Cloud SQL, Memorystore) à l'intérieur d'un VPC.
→Créez un connecteur d'accès VPC sans serveur dans le VPC cible. Configurez le service sans serveur pour qu'il utilise ce connecteur pour le trafic sortant.
Pourquoi: Le connecteur agit comme un proxy, permettant aux services sans serveur (qui s'exécutent dans un environnement géré par Google) d'envoyer du trafic vers un VPC géré par le client en utilisant des adresses IP internes.
Une application (par exemple, HPC, trading financier) nécessite la latence réseau la plus faible possible entre un groupe de VM.
→Créez une politique de placement compact et appliquez-la aux VM. Utilisez des types de machines avec une mise en réseau Tier_1.
Pourquoi: Colloquer les VM dans le même rack réseau minimise les sauts de réseau et la distance physique, réduisant considérablement la latence par rapport au placement standard des VM.
Mettre en œuvre un modèle de sécurité zéro confiance pour les microservices, nécessitant une identité forte, une communication chiffrée (mTLS) et une autorisation granulaire.
→Déployez Anthos Service Mesh. Activez le mTLS automatique pour toutes les communications de service à service. Utilisez les ressources `AuthorizationPolicy` pour définir les communications autorisées.
Pourquoi: Un service mesh découple la sécurité du réseau sous-jacent, fournissant l'identité de la charge de travail, le mTLS transparent et l'autorisation L7, qui sont des principes fondamentaux d'une architecture zéro confiance.