Eine Cloud SQL-Datenbank weist langsame Abfrageleistung und hohe CPU-Auslastung auf.
→Verwenden Sie Query Insights, um die ressourcenintensivsten Abfragen zu identifizieren, deren Ausführungspläne zu analysieren und fehlende Indizes oder ineffiziente Muster zu erkennen.
Warum: Query Insights ist das primäre, integrierte Tool zur Diagnose der Abfrageleistung in Cloud SQL. Es visualisiert die Abfragelast, identifiziert Warteereignisse und hilft, die Ursache ohne Tools von Drittanbietern zu finden.
Eine Organisation benötigt ein einziges Dashboard und einen Satz von Alarmrichtlinien für Dutzende von Datenbankinstanzen, die über mehrere GCP-Projekte verteilt sind.
→Erstellen Sie einen Cloud Monitoring Workspace in einem zentralen Projekt und konfigurieren Sie dessen "Metrikbereich" so, dass er alle Projekte mit Datenbankinstanzen umfasst.
Warum: Metrikbereiche ermöglichen es einem einzelnen Monitoring Workspace, Metriken aus mehreren Projekten zu aggregieren und anzuzeigen, wodurch eine einheitliche Ansicht ohne Datenreplikation oder komplexe Konfiguration bereitgestellt wird.
Cloud SQL-Instanzen in Entwicklungs-, Staging- und Produktionsumgebungen konsistent und mit Versionskontrolle bereitstellen und verwalten.
→Verwenden Sie Terraform mit dem Google Cloud-Anbieter. Definieren Sie ein Cloud SQL-Modul und verwenden Sie separate `.tfvars`-Dateien für jede Umgebung.
Warum: Terraform bietet Infrastructure as Code (IaC), was wiederholbare, auditierbare und versionskontrollierte Bereitstellungen ermöglicht. Dies vermeidet manuelle Konfigurationsfehler und gewährleistet Konsistenz über Umgebungen hinweg.
Ein Auftragnehmer benötigt temporären, erhöhten Datenbankzugriff, der nach 4 Stunden automatisch widerrufen werden muss.
→Erteilen Sie die erforderliche IAM-Rolle mit einer IAM Condition, die einen zeitbasierten Ausdruck (`request.time < timestamp(...)`) verwendet.
Warum: IAM Conditions bieten eine native, sichere Möglichkeit, zeitlich begrenzten Zugriff zu gewähren, ohne manuelle Bereinigung, die fehleranfällig ist. Der Zugriff wird nach Ablauf des Zeitstempels automatisch verweigert.
Eine Sicherheitsrichtlinie erfordert, dass die Verschlüsselung aller Datenbankdatenträger kundenverwaltete Schlüssel (CMEK) mit kontrollierter Rotation verwendet.
→Konfigurieren Sie die Cloud SQL- oder AlloyDB-Instanz so, dass sie einen Schlüssel von Cloud KMS verwendet. Konfigurieren Sie die automatische Rotation des KMS-Schlüssels.
Warum: CMEK bietet Kontrolle und Auditierbarkeit über die für die ruhende Verschlüsselung verwendeten Schlüssel. Cloud KMS verwaltet den Schlüssel-Lebenszyklus, einschließlich der automatisierten Rotation, nahtlos.
Die Compliance erfordert die Erfassung aller auf einer Cloud SQL for PostgreSQL-Instanz ausgeführten SQL-Abfragen, wobei die Protokolle 7 Jahre lang aufbewahrt werden.
→Aktivieren Sie die `pgaudit`-Erweiterung auf der Instanz. Konfigurieren Sie Cloud Audit Logs für den Datenzugriff. Erstellen Sie eine Log-Senke von Cloud Logging zu BigQuery für die langfristige Aufbewahrung und Analyse.
Warum: pgaudit bietet detaillierte Audits auf SQL-Ebene. Das Sinken von Logs nach BigQuery ist das Standard, kostengünstige Muster für die langfristige, durchsuchbare Log-Aufbewahrung über die Standardeinstellungen von Cloud Logging hinaus.
Datenanalysten müssen rechenintensive analytische Abfragen auf produktiven Cloud SQL-Daten ausführen, ohne die transaktionale Workload zu beeinträchtigen.
→Erstellen Sie ein Lesereplikat und leiten Sie alle analytischen Abfragen dorthin. Für komplexere Analysen verwenden Sie BigQuery Federated Queries gegen das Lesereplikat.
Warum: Ein Lesereplikat isoliert den analytischen Lese-Traffic vollständig von der primären Instanz und schützt die OLTP-Leistung. Federation ermöglicht die Nutzung der leistungsstarken BigQuery-Engine ohne eine separate ETL-Pipeline.
Ein Bigtable-Cluster zeigt eine ungleichmäßige CPU-Auslastung, wobei einige Knoten stark ausgelastet sind, während andere untätig sind, was auf einen Leistungsengpass hindeutet.
→Verwenden Sie das Key Visualizer Tool in der Cloud Console, um die Zugriffsmuster zu analysieren und die spezifischen Zeilenschlüsselbereiche zu identifizieren, die zu häufig aufgerufen werden (Hotspotting).
Warum: Key Visualizer ist das speziell entwickelte Diagnosetool für Bigtable-Leistungsprobleme. Es bietet eine Heatmap des Schlüsselzugriffs und erleichtert die Identifizierung von Hotspots, die durch ein Schema-Redesign behoben werden müssen.
Müssen Änderungen von einer Cloud SQL OLTP-Datenbank in ein BigQuery-Data Warehouse nahezu in Echtzeit replizieren.
→Verwenden Sie Datastream, um einen Change Data Capture (CDC)-Stream von der Quell-Cloud SQL-Instanz direkt nach BigQuery zu konfigurieren.
Warum: Datastream ist ein verwalteter CDC-Dienst mit geringer Latenz, der Datenbankprotokolle liest, wodurch die Auswirkungen auf die Quelle minimiert werden. Er verarbeitet Schemaänderungen und liefert Änderungen zuverlässig an BigQuery.
Eine Cloud Run-Anwendung erschöpft Datenbankverbindungen aufgrund schneller Skalierung während Verkehrsspitzen.
→Stellen Sie den Cloud SQL Auth Proxy als Sidecar-Container bereit und konfigurieren Sie ihn für Connection Pooling (oder verwenden Sie ihn mit einem dedizierten Pooler wie PgBouncer).
Warum: Serverless-Plattformen können auf Tausende von Instanzen skaliert werden und Datenbankverbindungslimits überfordern. Ein Connection Pooler multiplexiert diese zahlreichen, kurzlebigen Anwendungsverbindungen auf einen kleinen, stabilen Satz von Datenbankverbindungen.