Analise petabytes de dados estruturados com consultas SQL complexas sem gerenciar a infraestrutura.
→Use BigQuery.
Por quê: BigQuery é um data warehouse totalmente gerenciado e serverless, otimizado para consultas analíticas em larga escala.
Referência↗
Precisa de um banco de dados relacional distribuído globalmente com forte consistência e escalabilidade horizontal.
→Use Cloud Spanner.
Por quê: Spanner combina semântica relacional (ACID, SQL) com escalabilidade não-relacional, ideal para aplicações globais de missão crítica como finanças.
Referência↗
Armazene e recupere grandes volumes de dados simples de chave-valor (por exemplo, IoT, perfis de usuário) com latência de milissegundos de um dígito.
→Use Cloud Bigtable.
Por quê: Bigtable é um banco de dados NoSQL de coluna larga otimizado para cargas de trabalho operacionais e analíticas de alto throughput e baixa latência.
Referência↗
Crie um aplicativo móvel ou web que exija sincronização de dados em tempo real e funcionalidade offline.
→Use Firestore.
Por quê: Firestore é um banco de dados de documentos NoSQL com sincronização em tempo real e persistência offline integradas, projetado para o desenvolvimento de aplicativos modernos.
Referência↗
Migre um banco de dados tradicional MySQL, PostgreSQL ou SQL Server local para um serviço de nuvem gerenciado com o mínimo de alterações.
→Use Cloud SQL.
Por quê: Cloud SQL é um serviço de banco de dados relacional totalmente gerenciado que oferece compatibilidade com motores de banco de dados padrão, automatizando backups, patches e replicação.
Referência↗
Ingira e processe um fluxo de dados em tempo real e de alto volume (por exemplo, IoT, clickstreams) para análise imediata.
→Use Pub/Sub para ingestão, Dataflow para processamento de fluxo e BigQuery para análise.
Por quê: Este é o padrão serverless canônico para análise escalável e em tempo real no Google Cloud.
Armazene dados com padrões de acesso variados (frequente, infrequente, arquivo) de forma econômica.
→Use Cloud Storage com políticas de ciclo de vida para transicionar automaticamente dados entre as classes Standard, Nearline, Coldline e Archive.
Por quê: As políticas de ciclo de vida automatizam o tiering de dados, combinando o custo de armazenamento com a frequência de acesso sem intervenção manual.
Referência↗
Armazene grandes quantidades de dados brutos, não estruturados e semiestruturados para processamento e análise futuros.
→Use Cloud Storage como o repositório central (data lake).
Por quê: Cloud Storage oferece armazenamento de objetos durável e de baixo custo que se integra a todos os serviços de processamento de dados do GCP (BigQuery, Dataproc, Dataflow).
Execute trabalhos de processamento de dados em larga escala usando frameworks de código aberto como Apache Spark e Hadoop.
→Use Dataproc.
Por quê: Dataproc oferece clusters Spark e Hadoop totalmente gerenciados, automatizando a criação e o gerenciamento de clusters, permitindo que as equipes se concentrem em seus trabalhos.
Referência↗