תכנון כתובות IP עבור פריסות בקנה מידה גדול או בענן היברידי.
→השתמשו ב-custom-mode VPCs. הקצו בלוקי CIDR לא חופפים של RFC 1918 (לדוגמה, 172.16.0.0/12) כדי למנוע התנגשויות עם on-prem (לרוב 10.0.0.0/8). השתמשו ב-100.64.0.0/10 עבור טווחי Pods משניים של GKE.
למה: מונע התנגשויות IP עם on-prem עבור קישוריות היברידית עתידית ומספק שליטה מלאה על מרחב הכתובות, החיוני לקנה מידה ולמניעת תהליכי Re-IP יקרים.
מקור↗
ספקו בידוד רשתי למספר דיירים/סביבות (פיתוח, פרודקשן) תוך ריכוז ניהול הרשת ושירותים משותפים.
→השתמשו ב-Shared VPC. פרויקט המארח (host project) מכיל את ה-VPC, תתי-הרשתות, חומות האש וה-interconnects. דיירים/סביבות הם פרויקטי שירות (service projects) המצורפים לפרויקט המארח.
למה: מרכז את ניהול הרשת בפרויקט המארח תוך האצלת ניהול משאבים לפרויקטי שירות. פתרון סקיילבילי ויעיל יותר לניהול מפרויקטי VPC peering רבים בתוך ארגון.
מקור↗
תכנון כתובות IP עבור אשכולות GKE גדולים המשתמשים ברשת VPC-native.
→ב-custom-mode VPC, תכננו שלושה טווחי CIDR: טווח ראשי עבור צמתים (nodes), טווח משני עבור Pods, וטווח נוסף עבור Services. להרחבה, השתמשו ב-discontiguous multi-pod CIDR.
למה: רשת VPC-native דורשת טווחים משניים ייעודיים ולא חופפים עבור Pods ו-Services. תכנון גודל נכון מונע מיצוי IP, בעיה נפוצה ומפריעה באשכולות גדולים.
מקור↗
מכונות וירטואליות (VMs) ללא כתובות IP חיצוניות צריכות לגשת לממשקי API של Google Cloud (לדוגמה, Cloud Storage, BigQuery).
→אפשרו Private Google Access בתת-הרשת. באופן אופציונלי, הגדירו DNS לפתור את `*.googleapis.com` ל-`restricted.googleapis.com` (199.36.153.4/30) כדי לאכוף VPC-SC.
למה: מנתב תעבורה לממשקי API של Google על גבי הרשת הפנימית של Google מבלי לדרוש כתובות IP ציבוריות ב-VMs. שימוש ב-`restricted.googleapis.com` מוסיף שכבה של הגנה מפני דליפת נתונים.
מקור↗
ספקו גישה פרטית לשירות ב-VPC שלכם עבור צרכנים (שותפים, יחידות עסקיות אחרות) שלהם יש VPCs עם טווחי IP חופפים.
→פרסמו את השירות (באמצעות Internal Load Balancer) באמצעות Private Service Connect (PSC) service attachment. צרכנים יוצרים נקודת קצה של PSC ב-VPC שלהם עם IP מטווח הכתובות שלהם.
למה: PSC מפריד בין רשתות היצרן והצרכן, ומשתמש ב-NAT לטיפול בכתובות IP חופפות. הוא מספק גישה מאובטחת ברמת השירות, לא קישוריות רשת מלאה כמו VPC peering.
מקור↗
חברו מספר רב (50+) של VPCs ו/או אתרים מקומיים (on-prem) בטופולוגיית hub-and-spoke לניהול וקישוריות מרכזיים.
→השתמשו ב-Network Connectivity Center. הגדירו את ה-hub וצרפו VPCs כ-VPC spokes וחיבורים מקומיים (VPN/Interconnect) כ-hybrid spokes.
למה: NCC הוא הפתרון המנוהל של Google לטופולוגיות hub-and-spoke בקנה מידה גדול, המפשט את ניהול הניתוב ומתרחב מעבר למגבלת 25 ה-peerings של VPC peering.
פריסת אשכול GKE שבו לצמתים ולמישור הבקרה (control plane) אין כתובות IP ציבוריות לאבטחה משופרת.
→צרו אשכול GKE פרטי. זה מקצה רק כתובות IP פנימיות לצמתים ויוצר נקודת קצה פרטית למישור הבקרה. הגדירו רשתות מורשות כדי להגביל את הגישה למישור הבקרה.
למה: אשכול פרטי מסיר את מישור הבקרה והצמתים מהאינטרנט הציבורי, ובכך מפחית משמעותית את שטח התקיפה. כל תעבורת הניהול ועומסי העבודה נשארת ברשת הפרטית.
עומסי עבודה של Serverless (Cloud Run, Functions) צריכים לגשת למשאבים (לדוגמה, Cloud SQL, Memorystore) בתוך VPC.
→צרו מחבר Serverless VPC Access ב-VPC היעד. הגדירו את שירות ה-Serverless להשתמש במחבר זה עבור תעבורת egress.
למה: המחבר פועל כפרוקסי, ומאפשר לשירותי Serverless (הפועלים בסביבה מנוהלת על ידי Google) לשלוח תעבורה ל-VPC מנוהל על ידי לקוח באמצעות כתובות IP פנימיות.
יישום (לדוגמה, HPC, מסחר פיננסי) דורש את השהייה הנמוכה ביותר ברשת בין קבוצת VMs.
→צרו מדיניות מיקום קומפקטית (compact placement policy) והחילו אותה על ה-VMs. השתמשו בסוגי מכונות עם רשת Tier_1.
למה: ריכוז מכונות וירטואליות (VMs) באותו ארון רשת ממזער קפיצות רשת ומרחק פיזי, ובכך מפחית משמעותית את השהייה בהשוואה למיקום VM סטנדרטי.
הטמיעו מודל אבטחת zero-trust עבור מיקרו-שירותים, הדורש זהות חזקה, תקשורת מוצפנת (mTLS) והרשאה מפורטת.
→פרסו Anthos Service Mesh. אפשרו mTLS אוטומטי עבור כל תקשורת בין שירותים. השתמשו במשאבי `AuthorizationPolicy` כדי להגדיר תקשורת מורשית.
למה: Service mesh מפריד את האבטחה מהרשת הבסיסית, ומספק זהות עומס עבודה, mTLS שקוף והרשאת L7, שהם עקרונות ליבה בארכיטקטורת zero-trust.