大規模またはハイブリッドクラウドのデプロイメント向けにIPアドレス指定を計画する。
→カスタムモードVPCを使用する。オンプレミス(多くの場合 10.0.0.0/8)との競合を避けるため、重複しないRFC 1918 CIDRブロック(例:172.16.0.0/12)を割り当てる。GKE Podのセカンダリレンジには100.64.0.0/10を使用する。
理由: 将来のハイブリッド接続におけるオンプレミスとのIP競合を回避し、アドレス空間を完全に制御できる。これは、規模の拡大や高コストな再IPアドレス設定を避けるために不可欠である。
リファレンス↗
ネットワーク管理と共有サービスを集中化しつつ、複数のテナント/環境(開発、本番)にネットワーク分離を提供する。
→Shared VPCを使用する。ホストプロジェクトにはVPC、サブネット、ファイアウォール、インターコネクトが含まれる。テナント/環境は、ホストプロジェクトにアタッチされたサービスプロジェクトである。
理由: ホストプロジェクトでネットワーク管理を集中化し、リソース管理はサービスプロジェクトに委任する。組織内の多数のプロジェクトに対してVPC Peeringよりもスケーラブルで統制しやすい。
リファレンス↗
VPCネイティブネットワーキングを使用する大規模GKEクラスタ向けにIPアドレス指定を計画する。
→カスタムモードVPCで、ノード用のプライマリレンジ、Pod用のセカンダリレンジ、サービス用のもう一つのレンジという3つのCIDRレンジを計画する。拡張のためには、不連続なマルチPod CIDRを使用する。
理由: VPCネイティブネットワーキングでは、Podとサービスに専用の重複しないセカンダリレンジが必要となる。適切なサイジングは、大規模クラスタで一般的かつ破壊的な問題であるIP枯渇を防ぐ。
リファレンス↗
外部IPを持たないVMがGoogle Cloud API(例:Cloud Storage, BigQuery)にアクセスする必要がある。
→サブネットでPrivate Google Accessを有効にする。オプションで、VPC-SCを強制するために、DNSを設定して`*.googleapis.com`を`restricted.googleapis.com`(199.36.153.4/30)に解決させる。
理由: VMにパブリックIPを必要とせずに、Googleの内部ネットワーク経由でGoogle APIへのトラフィックをルーティングする。`restricted.googleapis.com`を使用することで、データ流出保護の層が追加される。
リファレンス↗
IPレンジが重複するVPCを持つコンシューマー(パートナー、他の事業部門)のために、自身のVPC内のサービスへのプライベートアクセスを提供する。
→Private Service Connect (PSC) サービスアタッチメントを使用して、サービス(Internal Load Balancer経由)を公開する。コンシューマーは、自身のレンジのIPを持つPSCエンドポイントを自身のVPC内に作成する。
理由: PSCはプロデューサーとコンシューマーのネットワークを分離し、NATを使用して重複するIPを処理する。VPC Peeringのような完全なネットワーク接続ではなく、セキュアなサービスレベルのアクセスを提供する。
リファレンス↗
集中管理と接続性のために、多数(50以上)のVPCおよび/またはオンプレミスサイトをハブアンドスポークトポロジで接続する。
→Network Connectivity Centerを使用する。ハブを設定し、VPCをVPCスポークとして、オンプレミス接続(VPN/Interconnect)をハイブリッドスポークとしてアタッチする。
理由: NCCは、大規模なハブアンドスポークトポロジ向けのGoogleのマネージドソリューションであり、ルート管理を簡素化し、VPC Peeringの25ピア制限を超えてスケールできる。
セキュリティ強化のため、ノードとコントロールプレーンがパブリックIPアドレスを持たないGKEクラスタをデプロイする。
→Private GKEクラスタを作成する。これにより、ノードには内部IPのみが割り当てられ、コントロールプレーンにはプライベートエンドポイントが作成される。認可済みネットワークを設定して、コントロールプレーンへのアクセスを制限する。
理由: プライベートクラスタは、コントロールプレーンとノードをパブリックインターネットから削除し、攻撃対象領域を大幅に削減する。すべての管理トラフィックとワークロードトラフィックはプライベートネットワーク上に留まる。
サーバーレスワークロード(Cloud Run, Functions)がVPC内のリソース(例:Cloud SQL, Memorystore)にアクセスする必要がある。
→ターゲットVPC内にServerless VPC Accessコネクタを作成する。このコネクタをエグレス(送信)トラフィックに使用するようにサーバーレスサービスを設定する。
理由: コネクタはプロキシとして機能し、サーバーレスサービス(Google管理環境で実行される)が内部IPを使用して顧客管理のVPCにトラフィックを送信することを可能にする。
アプリケーション(例:HPC、金融取引)が、VMグループ間で絶対的に最も低いネットワークレイテンシを必要とする。
→コンパクト配置ポリシーを作成し、VMに適用する。Tier_1ネットワーキングを持つマシンタイプを使用する。
理由: VMを同じネットワークラック内に併置することで、ネットワークホップと物理距離が最小限に抑えられ、標準的なVM配置と比較してレイテンシが大幅に削減される。
マイクロサービス向けにゼロトラストセキュリティモデルを実装し、強力なID、暗号化された通信(mTLS)、およびきめ細かい承認を要求する。
→Anthos Service Meshをデプロイする。すべてのサービス間通信で自動mTLSを有効にする。`AuthorizationPolicy`リソースを使用して許可される通信を定義する。
理由: サービスメッシュは、セキュリティを基盤となるネットワークから分離し、ワークロードID、透過的なmTLS、およびL7承認を提供する。これらはゼロトラストアーキテクチャの核となる要素である。