Planeje o endereçamento IP para implantações em larga escala ou de nuvem híbrida.
→Use VPCs em modo personalizado. Aloque blocos CIDR RFC 1918 não sobrepostos (por exemplo, 172.16.0.0/12) para evitar conflitos com a rede local (geralmente 10.0.0.0/8). Use 100.64.0.0/10 para intervalos secundários de pods GKE.
Por quê: Evita conflitos de IP com a rede local para futura conectividade híbrida e oferece controle total sobre o espaço de endereçamento, o que é essencial para escala e para evitar um custoso re-endereçamento de IPs.
Referência↗
Forneça isolamento de rede para múltiplos locatários/ambientes (desenvolvimento, produção) enquanto centraliza o gerenciamento de rede e os serviços compartilhados.
→Use Shared VPC. O projeto host contém a VPC, sub-redes, firewalls e interconexões. Locatários/ambientes são projetos de serviço anexados ao projeto host.
Por quê: Centraliza a administração da rede no projeto host enquanto delega o gerenciamento de recursos aos projetos de serviço. Mais escalável e governável do que o emparelhamento de VPC para muitos projetos dentro de uma organização.
Referência↗
Planeje o endereçamento IP para grandes clusters GKE usando redes VPC-nativas.
→Em uma VPC em modo personalizado, planeje três intervalos CIDR: um intervalo primário para nós, um intervalo secundário para Pods e outro para Services. Para expansão, use CIDR multi-pod descontíguo.
Por quê: A rede VPC-nativa requer intervalos secundários dedicados e não sobrepostos para pods e serviços. O dimensionamento adequado evita o esgotamento de IP, um problema comum e disruptivo em grandes clusters.
Referência↗
VMs sem IPs externos precisam acessar APIs do Google Cloud (por exemplo, Cloud Storage, BigQuery).
→Habilite o Acesso Privado do Google na sub-rede. Opcionalmente, configure o DNS para resolver `*.googleapis.com` para `restricted.googleapis.com` (199.36.153.4/30) para impor o VPC-SC.
Por quê: Encaminha o tráfego para as APIs do Google pela rede interna do Google sem exigir IPs públicos nas VMs. O uso de `restricted.googleapis.com` adiciona uma camada de proteção contra exfiltração de dados.
Referência↗
Forneça acesso privado a um serviço na sua VPC para consumidores (parceiros, outras unidades de negócio) cujas VPCs possuem intervalos de IP sobrepostos.
→Publique o serviço (via um Internal Load Balancer) usando um anexo de serviço Private Service Connect (PSC). Consumidores criam um endpoint PSC em suas VPCs com um IP do seu próprio intervalo.
Por quê: PSC desacopla as redes do produtor e do consumidor, usando NAT para lidar com IPs sobrepostos. Ele fornece acesso seguro em nível de serviço, não conectividade de rede completa como o emparelhamento de VPC.
Referência↗
Conecte um grande número (50+) de VPCs e/ou sites locais em uma topologia hub-and-spoke para gerenciamento e conectividade centralizados.
→Use o Network Connectivity Center. Configure o hub e anexe as VPCs como spokes de VPC e as conexões locais (VPN/Interconnect) como spokes híbridos.
Por quê: O NCC é a solução gerenciada do Google para topologias hub-and-spoke em larga escala, simplificando o gerenciamento de rotas e escalando além do limite de 25 emparelhamentos da VPC peering.
Implante um cluster GKE onde os nós e o plano de controle não possuam endereços IP públicos para maior segurança.
→Crie um cluster GKE Privado. Isso atribui apenas IPs internos aos nós e cria um endpoint privado para o plano de controle. Configure redes autorizadas para restringir o acesso ao plano de controle.
Por quê: Um cluster privado remove o plano de controle e os nós da internet pública, reduzindo significativamente a superfície de ataque. Todo o tráfego de gerenciamento e de carga de trabalho permanece na rede privada.
Cargas de trabalho serverless (Cloud Run, Functions) precisam acessar recursos (por exemplo, Cloud SQL, Memorystore) dentro de uma VPC.
→Crie um conector de Acesso Serverless VPC na VPC de destino. Configure o serviço serverless para usar este conector para o tráfego de saída.
Por quê: O conector atua como um proxy, permitindo que serviços serverless (que rodam em um ambiente gerenciado pelo Google) enviem tráfego para uma VPC gerenciada pelo cliente usando IPs internos.
Uma aplicação (por exemplo, HPC, trading financeiro) requer a latência de rede mais baixa possível entre um grupo de VMs.
→Crie uma política de posicionamento compacto e aplique-a às VMs. Use tipos de máquina com rede Tier_1.
Por quê: Colocar VMs no mesmo rack de rede minimiza saltos de rede e distância física, reduzindo significativamente a latência em comparação com o posicionamento padrão de VMs.
Implemente um modelo de segurança de confiança zero para microsserviços, exigindo identidade forte, comunicação criptografada (mTLS) e autorização granular.
→Implante o Anthos Service Mesh. Habilite o mTLS automático para toda a comunicação serviço-a-serviço. Use recursos `AuthorizationPolicy` para definir a comunicação permitida.
Por quê: Uma malha de serviço desacopla a segurança da rede subjacente, fornecendo identidade da carga de trabalho, mTLS transparente e autorização L7, que são pilares centrais de uma arquitetura de confiança zero.