Une application globale nécessite une faible latence et une haute disponibilité pour les utilisateurs du monde entier.
→Utiliser un Global HTTP(S) Load Balancer avec des backends multi-régions (MIGs/GKE), Cloud CDN pour le contenu statique et Cloud Armor pour la protection DDoS.
Pourquoi: Le Global Load Balancer fournit une adresse IP anycast unique qui achemine les utilisateurs vers le backend sain le plus proche. Le CDN met en cache le contenu en périphérie, réduisant la charge de l'origine et la latence.
Référence↗
Ingérer et traiter des données en temps réel et à haut débit provenant d'appareils IoT pour une analyse immédiate.
→Utiliser Pub/Sub pour l'ingestion de messages évolutive, un pipeline de streaming Dataflow pour le traitement en temps réel et la détection d'anomalies, et écrire les résultats dans BigQuery pour l'analyse.
Pourquoi: C'est le modèle serverless canonique pour les données en temps réel. Pub/Sub découple l'ingestion, Dataflow gère le traitement complexe avec l'auto-scaling, et BigQuery prend en charge les insertions en streaming pour l'analyse en temps réel.
Référence↗
Un backend de jeu doit stocker l'état des joueurs et les classements avec une latence de lecture inférieure à la milliseconde et un débit élevé.
→Utiliser Cloud Bigtable pour l'état du jeu/les classements et Memorystore (Redis) pour la mise en cache des sessions.
Pourquoi: Bigtable offre une latence de l'ordre de quelques millisecondes pour les lectures/écritures à haut débit, idéal pour les séries temporelles ou les grands ensembles de données analytiques. Memorystore offre une latence de l'ordre de la microseconde pour l'état des sessions.
Une application distribuée mondialement nécessite une base de données avec une forte cohérence transactionnelle et une scalabilité horizontale.
→Utiliser Cloud Spanner avec une configuration multi-régions.
Pourquoi: Spanner est le seul service qui offre des transactions globales, fortement cohérentes avec la sémantique SQL et une scalabilité horizontale. Cloud SQL nécessite un sharding manuel pour cette échelle.
Référence↗
Migrer une base de données Oracle ou PostgreSQL exigeante, sur site, nécessitant une haute disponibilité, des performances élevées et un refactoring minimal.
→Utiliser AlloyDB pour PostgreSQL.
Pourquoi: AlloyDB est une base de données entièrement gérée, compatible PostgreSQL, offrant des performances supérieures, une disponibilité de 99,99 % et des fonctionnalités de compatibilité Oracle, ce qui la rend idéale pour les migrations d'entreprise.
Référence↗
Connecter un centre de données sur site à GCP avec des exigences de connectivité cohérente, à faible latence (<10ms) et à haut débit (10+ Gbps).
→Utiliser Dedicated Interconnect avec des connexions redondantes.
Pourquoi: Dedicated Interconnect fournit une connexion physique privée, à haut débit et à faible latence. Cloud VPN fonctionne sur l'internet public et ne peut pas garantir les SLAs de latence ou de bande passante à ce niveau.
Référence↗
Concevoir un réseau pour plusieurs équipes/projets nécessitant une gestion réseau centralisée mais une propriété de projet décentralisée.
→Mettre en œuvre un modèle hub-and-spoke en utilisant un Shared VPC. L'équipe réseau centrale gère le projet hôte, et les équipes d'application utilisent des projets de service.
Pourquoi: Shared VPC permet un contrôle centralisé des ressources réseau (sous-réseaux, pare-feu) tout en déléguant la gestion des ressources dans les projets de service. C'est plus évolutif et sécurisé que le VPC peering.
Gérer les clusters Kubernetes de manière cohérente sur Google Cloud, AWS, Azure et les environnements sur site.
→Utiliser Anthos pour fournir un plan de contrôle unifié pour la gestion des clusters multi-cloud et hybrides, l'application des politiques et l'observabilité.
Pourquoi: Anthos étend GKE à d'autres environnements, permettant des opérations cohérentes et une gestion de la configuration basée sur GitOps (Config Management) sur l'ensemble de votre parc.
Une équipe de science des données doit entraîner des modèles ML complexes avec accélération GPU sans gérer l'infrastructure.
→Utiliser Vertex AI Training avec des conteneurs personnalisés et Vertex AI Experiments pour le suivi des itérations de modèles.
Pourquoi: Vertex AI fournit un service d'entraînement entièrement géré qui s'occupe du provisionnement de l'infrastructure, de la mise à l'échelle et de la gestion des GPU. Il s'intègre aux expérimentations pour suivre et comparer les performances des modèles.
Servir un grand modèle ML avec une faible latence et une haute disponibilité, capable d'auto-scaling.
→Utiliser Vertex AI Prediction avec un conteneur personnalisé, déployé sur un endpoint géré avec l'auto-scaling activé.
Pourquoi: Vertex AI Prediction est optimisé pour la diffusion de modèles à faible latence. Il gère l'auto-scaling, la répartition du trafic (pour les tests A/B) et la gestion de l'infrastructure, abstrayant la complexité pour les développeurs.
Un service Cloud Function ou Cloud Run doit se connecter de manière sécurisée à une instance Cloud SQL avec une adresse IP privée.
→Configurer un connecteur d'accès VPC Serverless pour relier l'environnement serverless à votre VPC.
Pourquoi: Le connecteur crée un tunnel dans votre VPC, permettant aux services serverless d'accéder aux ressources internes par leurs adresses IP privées sans les exposer à Internet.