Planificar el direccionamiento IP para implementaciones a gran escala o en la nube híbrida.
→Utilizar VPCs en modo personalizado. Asignar bloques CIDR RFC 1918 que no se superpongan (por ejemplo, 172.16.0.0/12) para evitar conflictos con redes on-prem (a menudo 10.0.0.0/8). Usar 100.64.0.0/10 para rangos secundarios de pods de GKE.
Por qué: Evita conflictos de IP con redes on-prem para futura conectividad híbrida y proporciona control total sobre el espacio de direcciones, lo cual es esencial para la escalabilidad y para evitar costosas re-IP.
Referencia↗
Proporcionar aislamiento de red para múltiples inquilinos/entornos (desarrollo, producción) mientras se centraliza la gestión de red y los servicios compartidos.
→Utilizar Shared VPC. El proyecto host contiene la VPC, las subredes, los firewalls y las interconexiones. Los inquilinos/entornos son proyectos de servicio adjuntos al proyecto host.
Por qué: Centraliza la administración de la red en el proyecto host mientras delega la gestión de recursos a los proyectos de servicio. Más escalable y gobernable que el VPC peering para muchos proyectos dentro de una organización.
Referencia↗
Planificar el direccionamiento IP para grandes clusters de GKE utilizando redes nativas de VPC.
→En una VPC de modo personalizado, planificar tres rangos CIDR: un rango primario para nodos, un rango secundario para Pods y otro para Services. Para la expansión, usar CIDR multi-pod discontinuo.
Por qué: La red nativa de VPC requiere rangos secundarios dedicados y no superpuestos para pods y servicios. Un dimensionamiento adecuado previene el agotamiento de IP, un problema común y disruptivo en clusters grandes.
Referencia↗
Las VMs sin IPs externas necesitan acceder a las APIs de Google Cloud (por ejemplo, Cloud Storage, BigQuery).
→Habilitar Private Google Access en la subred. Opcionalmente, configurar DNS para resolver `*.googleapis.com` a `restricted.googleapis.com` (199.36.153.4/30) para aplicar VPC-SC.
Por qué: Encaminará el tráfico a las APIs de Google a través de la red interna de Google sin requerir IPs públicas en las VMs. El uso de `restricted.googleapis.com` añade una capa de protección contra la exfiltración de datos.
Referencia↗
Proporcionar acceso privado a un servicio en su VPC para consumidores (socios, otras unidades de negocio) cuyas VPCs tienen rangos de IP superpuestos.
→Publicar el servicio (a través de un Internal Load Balancer) utilizando un adjunto de servicio de Private Service Connect (PSC). Los consumidores crean un endpoint de PSC en su VPC con una IP de su propio rango.
Por qué: PSC desacopla las redes del productor y del consumidor, utilizando NAT para manejar IPs superpuestas. Proporciona acceso seguro a nivel de servicio, no conectividad de red completa como el VPC peering.
Referencia↗
Conectar un gran número (más de 50) de VPCs y/o sitios on-prem en una topología de hub-and-spoke para una gestión y conectividad centralizadas.
→Utilizar Network Connectivity Center. Configurar el hub y adjuntar las VPCs como spokes de VPC y las conexiones on-prem (VPN/Interconnect) como spokes híbridos.
Por qué: NCC es la solución gestionada de Google para topologías hub-and-spoke a gran escala, simplificando la gestión de rutas y escalando más allá del límite de 25 pares del VPC peering.
Desplegar un cluster de GKE donde los nodos y el plano de control no tengan direcciones IP públicas para una seguridad mejorada.
→Crear un cluster de GKE Private. Esto asigna solo IPs internas a los nodos y crea un endpoint privado para el plano de control. Configurar redes autorizadas para restringir el acceso al plano de control.
Por qué: Un cluster privado elimina el plano de control y los nodos de la internet pública, reduciendo significativamente la superficie de ataque. Todo el tráfico de gestión y de carga de trabajo permanece en la red privada.
Las cargas de trabajo serverless (Cloud Run, Functions) necesitan acceder a recursos (por ejemplo, Cloud SQL, Memorystore) dentro de una VPC.
→Crear un conector de Serverless VPC Access en la VPC de destino. Configurar el servicio serverless para que use este conector para el tráfico de salida.
Por qué: El conector actúa como un proxy, permitiendo que los servicios serverless (que se ejecutan en un entorno gestionado por Google) envíen tráfico a una VPC gestionada por el cliente utilizando IPs internas.
Una aplicación (por ejemplo, HPC, trading financiero) requiere la latencia de red más baja posible entre un grupo de VMs.
→Crear una política de ubicación compacta y aplicarla a las VMs. Usar tipos de máquina con red Tier_1.
Por qué: Colocar las VMs dentro del mismo rack de red minimiza los saltos de red y la distancia física, reduciendo significativamente la latencia en comparación con la ubicación estándar de VMs.
Implementar un modelo de seguridad de confianza cero para microservicios, que requiera identidad fuerte, comunicación cifrada (mTLS) y autorización granular.
→Desplegar Anthos Service Mesh. Habilitar mTLS automático para toda la comunicación entre servicios. Usar recursos `AuthorizationPolicy` para definir la comunicación permitida.
Por qué: Una service mesh desacopla la seguridad de la red subyacente, proporcionando identidad de carga de trabajo, mTLS transparente y autorización L7, que son pilares fundamentales de una arquitectura de confianza cero.