Entwerfen Sie ein skalierbares Netzwerk für ein Unternehmen mit zentralisierter Konnektivität (ExpressRoute/VPN), gemeinsam genutzten Diensten und Workload-Isolation.
→Eine Hub-Spoke-Topologie. Das Hub-VNet enthält das Gateway, die Azure Firewall und andere gemeinsame Dienste. Spoke-VNets enthalten Anwendungs-Workloads und sind mit dem Hub gepeert.
Warum: Dies ist das Standard- und empfohlene Unternehmensmuster. Es zentralisiert Sicherheit und Konnektivität, reduziert Kosten und Komplexität, während Spokes eine starke Workload-Isolation bieten.
Eine globale Webanwendung benötigt Layer-7-Lastverteilung, eine Web Application Firewall (WAF), SSL-Offloading und URL-basiertes Routing.
→Azure Front Door (Standard oder Premium).
Warum: Front Door ist ein modernes Cloud-CDN und ein globaler Lastverteiler, der diese Funktionen in einem einzigen Dienst integriert und eine bessere Leistung sowie eine einfachere Verwaltung bietet als die Kombination von Traffic Manager mit regionalen Application Gateways.
Entwerfen Sie einen produktionsreifen AKS-Cluster für mehrere Teams mit unterschiedlichen Workload-Typen (CPU-, GPU-, speicherintensive).
→Verwenden Sie einen dedizierten Systemknotenpool und mehrere Benutzerknotenpools mit verschiedenen VM-SKUs (z. B. F-Serie für CPU, E-Serie für Arbeitsspeicher, N-Serie für GPU). Verwenden Sie den Cluster-Autoscaler und aktivieren Sie den Standard/Premium-Tarif für das Uptime-SLA.
Warum: Mehrere Knotenpools ermöglichen die Zuordnung der richtigen Hardware zur richtigen Workload für Leistung und Kosteneffizienz. Die Trennung von System-Pods verbessert die Stabilität. Der Standard/Premium-Tarif ist für ein finanziell abgesichertes SLA erforderlich.
Ein ereignisgesteuerter serverloser Workflow erfordert Ausführungszeiten, die länger als das 10-Minuten-Limit des Functions Consumption Plans sind.
→Verwenden Sie Azure Functions auf einem Premium-Plan oder einem App Service-Plan, oder verwenden Sie Azure Durable Functions für die Orchestrierung.
Warum: Der Premium-Plan unterstützt Ausführungszeiten von bis zu 60 Minuten (standardmäßig 30) und vermeidet Kaltstarts. Durable Functions sind ideal für die Orchestrierung lang laufender, zustandsbehafteter Workflows, die menschliche Interaktion oder lange Wartezeiten beinhalten können.
Wählen Sie einen Messaging-Dienst für ein Fan-Out-Ereignisbenachrichtigungssystem im Vergleich zu einem zuverlässigen, geordneten Befehlsverarbeitungssystem.
→Verwenden Sie Azure Event Grid für Fan-Out, reaktive Eventing. Verwenden Sie Azure Service Bus Queues (mit Sitzungen zur Sortierung) für zuverlässige, transaktionale Befehlsverarbeitung.
Warum: Event Grid ist ein leichter, push-basierter Ereignisrouting-Dienst, der für reaktive Programmierung optimiert ist. Service Bus ist ein robuster Message Broker mit Funktionen wie FIFO (Sitzungen), Dead-Lettering und Transaktionen für Unternehmens-Messaging.
Eine API, die in einem privaten VNet läuft, sicher externen Partnern zugänglich machen, mit Richtlinien für Ratenbegrenzung und Authentifizierung.
→Azure API Management (APIM) im internen VNet-Modus bereitstellen, vorgelagert durch ein Azure Application Gateway mit WAF für den öffentlichen Ingress.
Warum: Dieses Muster bietet Defense-in-Depth. APIM im VNet kann auf das private Backend zugreifen. Das App Gateway beendet SSL, inspiziert den Datenverkehr mit WAF und leitet ihn an die private APIM-Instanz weiter. APIM-Richtlinien handhaben Authentifizierung, Ratenbegrenzungen usw.
Hunderte von Zweigstellen und VNets global mit automatisierter Any-to-Any-Konnektivität verbinden.
→Azure Virtual WAN.
Warum: Virtual WAN ist die verwaltete Microsoft-Lösung für großflächige, globale Transit-Netzwerke. Es automatisiert komplexe Routings und bietet einen einheitlichen Hub für die Verbindung von VPN-, ExpressRoute- und VNet-Spokes.
Einen groß angelegten, parallelen Batch-Job (z. B. CFD-Simulation) ausführen, der Tausende von Kernen und MPI-Kommunikation mit geringer Latenz erfordert.
→Azure Batch mit einem Pool von InfiniBand-fähigen VMs (z. B. HB-Serie) unter Verwendung von Low-Priority (Spot)-Preisen.
Warum: Azure Batch ist ein Job-Scheduler, der für HPC entwickelt wurde. InfiniBand-fähige VMs bieten die hohe Durchsatz-, niedrige Latenz-RDMA-Netzwerkkonfiguration, die für MPI erforderlich ist. VMs mit niedriger Priorität reduzieren die Kosten für fehlertolerante Workloads drastisch.
Eine Anwendung in einem VNet muss auf PaaS-Dienste (SQL, Storage) zugreifen, ohne dass der Datenverkehr das öffentliche Internet durchquert.
→Erstellen Sie private Endpunkte für die PaaS-Dienste. Dies gibt dem Dienst eine private IP-Adresse innerhalb Ihres VNets.
Warum: Private Endpunkte sind die sicherste Methode für private PaaS-Konnektivität. Sie stellen sicher, dass der Datenverkehr im Microsoft-Backbone verbleibt und ermöglichen es Ihnen, den öffentlichen Endpunkt des PaaS-Dienstes vollständig zu deaktivieren.
Eine moderne Single-Page Application (SPA) mit einem serverlosen API-Backend, CI/CD-Integration und einer benutzerdefinierten Domäne hosten.
→Azure Static Web Apps.
Warum: Dies ist ein speziell entwickelter, optimierter Dienst für genau dieses Muster. Er kombiniert statisches Content-Hosting, integrierte Azure Functions für die API, GitHub/Azure DevOps-Integration und verwaltete benutzerdefinierte Domänen mit kostenlosen SSL-Zertifikaten.
Server, die lokal und in anderen Clouds (z. B. AWS) laufen, von Azure aus verwalten und Governance (Azure Policy) anwenden.
→Installieren Sie den Azure Arc-Agent auf den Nicht-Azure-Servern, um sie als Azure Arc-fähige Server zu projizieren.
Warum: Azure Arc erweitert die Azure-Steuerungsebene auf jede Infrastruktur. Sobald ein Server Arc-fähig ist, kann er mit Azure Policy, Monitor, Defender for Cloud usw. verwaltet werden, genau wie eine native Azure VM.
Funktionalität schrittweise von einer monolithischen Altanwendung zu neuen Microservices migrieren, ohne eine "Big Bang"-Umstellung.
→Wenden Sie das Strangler Fig-Muster mit einem Reverse Proxy wie Azure API Management oder Application Gateway an.
Warum: Der Reverse Proxy fängt Aufrufe an den Monolithen ab und leitet den Datenverkehr für bestimmte Funktionen selektiv an die neuen Microservices weiter. Mit der Zeit "erdrosselt" der Proxy den Monolithen, indem er immer mehr Datenverkehr umleitet, bis das alte System außer Betrieb genommen werden kann.
VMs befinden sich in einem VNet mit erzwungenem Tunneling (der gesamte Internetverkehr wird lokal geroutet), können aber nicht auf Azure PaaS-Dienste zugreifen.
→Erzwungenes Tunneling unterbricht den direkten Zugriff auf öffentliche Azure-Endpunkte. Verwenden Sie Dienst-Endpunkte oder private Endpunkte für den PaaS-Zugriff. Alternativ können Sie UDRs für bestimmte Azure-Dienst-Tags mit einem Next Hop von "Internet" hinzufügen, um den Tunnel zu umgehen.
Warum: PaaS-Dienste haben öffentliche Endpunkte. Erzwungenes Tunneling leitet diesen Datenverkehr lokal weiter. Sie müssen einen Ausnahme-Pfad erstellen, entweder indem Sie den PaaS-Dienst privat machen (Endpunkte) oder indem Sie spezifische Routing-Ausnahmen erstellen (UDRs mit Dienst-Tags).
Ein Hub-Spoke-Netzwerk muss lokale DNS-Namen von Azure und private Azure DNS-Zonen von lokal auflösen können.
→Stellen Sie Azure DNS Private Resolver im Hub-VNet bereit. Konfigurieren Sie einen Inbound-Endpunkt, damit lokale Systeme Azure DNS auflösen können, und einen Outbound-Endpunkt mit Weiterleitungsregelwerken, um lokale DNS-Namen von Azure aus aufzulösen.
Warum: Dies ist die moderne PaaS-Lösung für die hybride DNS-Auflösung, die die Notwendigkeit, benutzerdefinierte DNS-Server-VMs zu verwalten, ersetzt. Sie integriert sich nativ mit privaten DNS-Zonen und lokalen DNS-Forwardern.
Mehrere VNets benötigen eine vorhersagbare, statische öffentliche IP für den gesamten ausgehenden Datenverkehr zur Whitelisting durch externe Dienste.
→In einer Hub-Spoke-Topologie leiten Sie den gesamten ausgehenden Datenverkehr (0.0.0.0/0) von Spokes durch eine Azure Firewall oder ein NAT Gateway im Hub-VNet.
Warum: Die Zentralisierung des ausgehenden Datenverkehrs im Hub stellt sicher, dass der gesamte ausgehende Datenverkehr die öffentlichen IPs der Hub-Firewall/des NAT Gateways verwendet, was die Verwaltung und externe Whitelisting vereinfacht. NAT Gateway ist einfacher für reines SNAT, während Firewall Sicherheitsinspektionen hinzufügt.
Hochsensible Daten so verarbeiten, dass sie selbst während der Nutzung im Arbeitsspeicher verschlüsselt sind, um sie vor dem Cloud-Betreiber zu schützen.
→Verwenden Sie Azure Confidential Computing VMs (DCsv3/ECsv3-Serien) mit Intel SGX oder AMD SEV-SNP, um Code in einer hardwarebasierten Trusted Execution Environment (TEE) oder verschlüsseltem Speicher auszuführen.
Warum: Confidential Computing adressiert die Säule "Daten in Verwendung" der Sicherheit, was traditionelle Verschlüsselung im Ruhezustand und während der Übertragung nicht tun. Es bietet überprüfbare Isolation auf Hardware-Ebene.
Ein SaaS-Anbieter muss seinen Dienst, der in seinem VNet läuft, einem Kunden in dessen VNet vollständig über das private Azure-Netzwerk zugänglich machen.
→Der Anbieter erstellt einen Azure Private Link Service auf seinem Standard Load Balancer. Der Kunde erstellt einen Private Endpoint in seinem VNet, der sich mit dem Dienst verbindet.
Warum: Private Link ist das definitive Muster für die sichere, private, mandantenübergreifende Dienstbereitstellung. Es vermeidet die Exposition gegenüber dem öffentlichen Internet, IP-Überlappungsprobleme und komplexe VNet-Peering-Konfigurationen.