Plateforme e-commerce mondiale nécessitant des transactions ACID, une forte cohérence et une disponibilité de 99,999 % sur plusieurs continents.
→Cloud Spanner avec une configuration multi-régions (par exemple, nam-eur-asia).
Pourquoi: Spanner est le seul service géré de GCP offrant des transactions ACID fortement cohérentes et distribuées globalement à grande échelle avec un SLA de 99,999 %.
Référence↗
Migration d'une grande base de données Oracle OLTP haute performance avec des procédures stockées complexes et des besoins en requêtes analytiques.
→AlloyDB pour PostgreSQL.
Pourquoi: AlloyDB offre des performances PostgreSQL supérieures, des fonctionnalités de compatibilité Oracle et un moteur columnar pour accélérer les requêtes analytiques (HTAP) sans impacter les charges de travail transactionnelles.
Référence↗
Ingestion à haut débit (millions d'OPS) de données de séries chronologiques (par exemple, IoT, journaux) nécessitant des lectures à faible latence et une expiration automatique des données.
→Cloud Bigtable avec une conception de clé de ligne `(entity_id)#(reverse_timestamp)` et une politique de récupération de place (garbage collection).
Pourquoi: Bigtable est conçu pour des charges de travail clé/valeur à grande échelle et à faible latence. Un horodatage inversé dans la clé de ligne co-localise les données récentes pour des analyses efficaces. La récupération de place gère le TTL.
Référence↗
Application mobile ou web nécessitant un schéma flexible, une synchronisation de données en temps réel avec les clients et un support hors ligne.
→Firestore en mode natif.
Pourquoi: Firestore est conçu spécifiquement pour ce modèle de backend d'application sans serveur, offrant des écouteurs en temps réel et une persistance hors ligne via ses SDK clients, prêts à l'emploi.
Référence↗
Recherche de similarité à grande échelle (plus de 10 millions de vecteurs) pour les applications d'IA/ML (par exemple, RAG, recommandations) nécessitant une latence inférieure à 100 ms.
→AlloyDB pour PostgreSQL avec l'extension pgvector et un index ScaNN.
Pourquoi: AlloyDB intègre l'algorithme ScaNN haute performance de Google pour la recherche de plus proches voisins approximatifs (ANN), surpassant les implémentations de recherche vectorielle standard à grande échelle.
Concevoir un schéma Cloud Spanner pour une charge de travail à forte intensité d'écriture afin d'éviter les hotspots sur un seul serveur.
→Concevoir des clés primaires qui n'utilisent pas de valeurs augmentant de manière monotone (par exemple, des ID séquentiels, des horodatages) comme première partie de la clé. Utiliser plutôt des UUID, des valeurs hachées ou des séquences inversées de bits.
Pourquoi: Spanner distribue les données de manière lexicographique par clé primaire. Les clés séquentielles dirigent toutes les écritures vers un seul split, créant un hotspot. Les clés distribuées aléatoirement répartissent les écritures sur tous les splits.
Référence↗
Un schéma Spanner a une forte relation parent-enfant (par exemple, Clients et Commandes) et les requêtes récupèrent fréquemment un parent avec tous ses enfants.
→Utiliser des tables entrelacées (interleaved tables), en définissant la table enfant avec `INTERLEAVE IN PARENT`.
Pourquoi: L'entrelacement co-localise physiquement les lignes enfants avec leur ligne parent dans le stockage. Cela rend les jointures parent-enfant extrêmement efficaces, car cela devient une analyse de plage hautement optimisée sur un seul split.
Suivi des emplacements en temps réel pour une flotte massive de véhicules (plus de 50 000 écritures/seconde) avec des requêtes pour trouver des véhicules dans une zone géographique.
→Cloud Bigtable avec une clé de ligne préfixée par un GeoHash de l'emplacement du véhicule.
Pourquoi: Bigtable gère le débit d'écriture extrême. L'encodage GeoHash convertit les coordonnées 2D en une chaîne 1D où les préfixes représentent la proximité géographique, permettant des analyses de plage géospatiales efficaces.
Stocker et analyser des données à l'échelle du pétaoctet (par exemple, données génomiques, journaux) avec des requêtes SQL analytiques complexes.
→Stocker les données brutes dans Cloud Storage et les interroger directement depuis BigQuery à l'aide de tables externes, ou les charger dans le stockage natif de BigQuery.
Pourquoi: BigQuery est un entrepôt de données sans serveur conçu pour l'analyse à l'échelle du pétaoctet. Sa séparation du stockage et du calcul offre des performances de requête inégalées et une rentabilité pour les charges de travail OLAP.
Un cache en mémoire haute disponibilité pour des structures de données complexes (hachages, ensembles) avec des capacités pub/sub pour l'invalidation du cache.
→Memorystore pour Redis Standard Tier avec répliques en lecture.
Pourquoi: Le Standard Tier offre un SLA de 99,9 % avec basculement automatique. Redis prend en charge des types de données complexes et le pub/sub, contrairement à Memcached. Les répliques en lecture peuvent faire évoluer le débit de lecture.
Concevoir une application SaaS multi-locataire sur Spanner nécessitant une forte isolation des données et des garanties de performance par locataire.
→Utiliser tenant_id comme premier composant de la clé primaire pour toutes les tables. Pour une isolation plus forte, utiliser un modèle "une base de données par locataire" au sein d'une seule instance Spanner.
Pourquoi: Un préfixe tenant_id co-localise naturellement toutes les données d'un seul locataire, optimisant les requêtes et permettant à Spanner de diviser les données par locataire. Le modèle "une base de données par locataire" offre l'isolation logique la plus forte.