Concevoir un réseau évolutif pour une entreprise avec connectivité centralisée (ExpressRoute/VPN), services partagés et isolation des charges de travail.
→Une topologie hub-and-spoke. Le VNet hub contient la passerelle, Azure Firewall et d’autres services partagés. Les VNets spoke contiennent les charges de travail applicatives et sont appairées au hub.
Pourquoi: C’est le modèle d’entreprise standard et recommandé. Il centralise la sécurité et la connectivité, réduisant les coûts et la complexité, tandis que les spokes offrent une forte isolation des charges de travail.
Une application web globale nécessite un équilibrage de charge de couche 7, un Web Application Firewall (WAF), le déchargement SSL et le routage basé sur l’URL.
→Azure Front Door (Standard ou Premium).
Pourquoi: Front Door est un CDN cloud moderne et un équilibreur de charge global qui intègre ces capacités dans un seul service, offrant de meilleures performances et une gestion plus simple que la combinaison de Traffic Manager avec des Application Gateways régionales.
Concevoir un cluster AKS de qualité production pour plusieurs équipes avec des types de charges de travail variés (CPU, GPU, gourmandes en mémoire).
→Utilisez un pool de nœuds système dédié et plusieurs pools de nœuds utilisateur avec différentes SKU de VM (par exemple, série F pour le CPU, série E pour la mémoire, série N pour le GPU). Utilisez l’autoscaler de cluster et activez le niveau Standard/Premium pour le SLA de disponibilité.
Pourquoi: Plusieurs pools de nœuds permettent de faire correspondre le bon matériel à la bonne charge de travail pour l’efficacité des performances et des coûts. La séparation des pods système améliore la stabilité. Le niveau Standard/Premium est requis pour un SLA soutenu financièrement.
Un workflow serverless basé sur les événements nécessite des temps d’exécution supérieurs à la limite de 10 minutes du plan de consommation Functions.
→Utilisez Azure Functions sur un plan Premium ou un plan App Service, ou utilisez Azure Durable Functions pour l’orchestration.
Pourquoi: Le plan Premium prend en charge l’exécution jusqu’à 60 minutes (30 par défaut) et évite les démarrages à froid. Les Durable Functions sont idéales pour orchestrer des workflows avec état de longue durée qui peuvent impliquer une interaction humaine ou de longues attentes.
Choisir un service de messagerie pour un système de notification d’événements en "fan-out" versus un système de traitement de commandes fiable et ordonné.
→Utilisez Azure Event Grid pour le "fan-out" et l’événementiel réactif. Utilisez Azure Service Bus Queues (avec sessions pour l’ordonnancement) pour un traitement de commandes transactionnel et fiable.
Pourquoi: Event Grid est un service de routage d'événements léger, basé sur la poussée, optimisé pour la programmation réactive. Service Bus est un courtier de messages robuste avec des fonctionnalités telles que FIFO (sessions), la lettre morte et les transactions pour la messagerie d'entreprise.
Exposer en toute sécurité une API s’exécutant sur un VNet privé à des partenaires externes, avec des stratégies de limitation de débit et d’authentification.
→Déployez Azure API Management (APIM) en mode VNet interne, précédé d’une Azure Application Gateway avec WAF pour l’entrée publique.
Pourquoi: Ce modèle fournit une défense en profondeur. APIM dans le VNet peut accéder au backend privé. L’App Gateway termine le SSL, inspecte le trafic avec WAF et le transfère à l’instance APIM privée. Les stratégies APIM gèrent l’authentification, les limites de débit, etc.
Connecter des centaines de succursales et de VNets dans le monde entier avec une connectivité automatisée, de n’importe où à n’importe où.
→Azure Virtual WAN.
Pourquoi: Virtual WAN est la solution Microsoft gérée pour la mise en réseau de transit global à grande échelle. Il automatise le routage complexe et fournit un hub unifié pour connecter les spokes VPN, ExpressRoute et VNet.
Exécuter un travail par lots parallèle à grande échelle (par exemple, simulation CFD) nécessitant des milliers de cœurs et une communication MPI à faible latence.
→Azure Batch avec un pool de VM compatibles InfiniBand (par exemple, série HB) utilisant la tarification à faible priorité (Spot).
Pourquoi: Azure Batch est un planificateur de tâches conçu pour le HPC. Les VM compatibles InfiniBand fournissent la mise en réseau RDMA à haut débit et faible latence requise pour MPI. Les VM à faible priorité réduisent considérablement les coûts pour les charges de travail tolérantes aux pannes.
Une application dans un VNet doit accéder aux services PaaS (SQL, Storage) sans que le trafic ne traverse l’internet public.
→Créez des points de terminaison privés pour les services PaaS. Cela donne au service une adresse IP privée au sein de votre VNet.
Pourquoi: Les Private Endpoints sont la méthode la plus sécurisée pour la connectivité PaaS privée. Ils garantissent que le trafic reste sur le réseau dorsal de Microsoft et vous permettent de désactiver entièrement le point de terminaison public du service PaaS.
Héberger une application monopage (SPA) moderne avec un backend API serverless, une intégration CI/CD et un domaine personnalisé.
→Azure Static Web Apps.
Pourquoi: Il s’agit d’un service rationalisé et spécialement conçu pour ce modèle. Il combine l’hébergement de contenu statique, les Azure Functions intégrées pour l’API, l’intégration GitHub/Azure DevOps et les domaines personnalisés gérés avec des certificats SSL gratuits.
Gérer et appliquer la gouvernance (Azure Policy) aux serveurs s’exécutant sur site et dans d’autres clouds (par exemple, AWS) depuis Azure.
→Installez l’agent Azure Arc sur les serveurs non-Azure pour les projeter comme serveurs activés par Azure Arc.
Pourquoi: Azure Arc étend le plan de contrôle Azure à toute infrastructure. Une fois qu’un serveur est activé par Arc, il peut être géré avec Azure Policy, Monitor, Defender for Cloud, etc., tout comme une VM Azure native.
Migrer progressivement les fonctionnalités d’une application monolithique héritée vers de nouveaux microservices sans une bascule "big bang".
→Appliquez le modèle Strangler Fig en utilisant un proxy inverse comme Azure API Management ou Application Gateway.
Pourquoi: Le proxy inverse intercepte les appels vers le monolithe et achemine sélectivement le trafic pour des fonctionnalités spécifiques vers les nouveaux microservices. Au fil du temps, le proxy "étrangle" le monolithe en redirigeant de plus en plus de trafic jusqu’à ce que l’ancien système puisse être retiré.
Les VM se trouvent dans un VNet avec tunnellisation forcée (tout le trafic internet est routé sur site), mais elles ne peuvent pas accéder aux services Azure PaaS.
→La tunnellisation forcée bloque l’accès direct aux points de terminaison publics d’Azure. Utilisez des points de terminaison de service ou des points de terminaison privés pour l’accès PaaS. Alternativement, ajoutez des UDR pour des balises de service Azure spécifiques avec un "Internet" comme saut suivant pour contourner le tunnel.
Pourquoi: Les services PaaS ont des points de terminaison publics. La tunnellisation forcée envoie ce trafic sur site. Vous devez créer un chemin d’exception, soit en rendant le service PaaS privé (points de terminaison), soit en créant des exceptions de routage spécifiques (UDR avec balises de service).
Un réseau hub-spoke doit résoudre les noms DNS sur site depuis Azure, et les zones DNS privées Azure depuis sur site.
→Déployez Azure DNS Private Resolver dans le VNet hub. Configurez un point de terminaison entrant pour que le sur site résolve le DNS Azure, et un point de terminaison sortant avec des jeux de règles de redirection pour résoudre le DNS sur site depuis Azure.
Pourquoi: C’est la solution PaaS moderne pour la résolution DNS hybride, remplaçant la nécessité de gérer des VM de serveurs DNS personnalisés. Elle s’intègre nativement aux zones DNS privées et aux redirecteurs DNS sur site.
Plusieurs VNets ont besoin d’une IP publique prévisible et statique pour tout le trafic sortant, pour la mise en liste blanche par des services externes.
→Dans une topologie hub-spoke, routez tout le trafic sortant (0.0.0.0/0) des spokes via un Azure Firewall ou une NAT Gateway dans le VNet hub.
Pourquoi: La centralisation de la sortie dans le hub garantit que tout le trafic sortant utilise les IP publiques du pare-feu/NAT Gateway du hub, simplifiant la gestion et la mise en liste blanche externe. La NAT Gateway est plus simple pour le SNAT pur, tandis que le Firewall ajoute l’inspection de sécurité.
Traiter des données hautement sensibles de manière à ce qu’elles soient chiffrées même lorsqu’elles sont utilisées en mémoire, les protégeant de l’opérateur cloud.
→Utilisez des VM Azure Confidential Computing (séries DCsv3/ECsv3) avec Intel SGX ou AMD SEV-SNP pour exécuter du code dans un environnement d’exécution de confiance (TEE) basé sur le matériel ou une mémoire chiffrée.
Pourquoi: Le Confidential Computing aborde le pilier de sécurité "données en cours d’utilisation", ce que le chiffrement traditionnel au repos et en transit ne fait pas. Il offre une isolation vérifiable au niveau matériel.
Un fournisseur SaaS doit exposer son service, s’exécutant dans son VNet, à un client dans le VNet du client, entièrement sur le réseau privé Azure.
→Le fournisseur crée un Azure Private Link Service sur son Standard Load Balancer. Le client crée un Private Endpoint dans son VNet qui se connecte au service.
Pourquoi: Private Link est le modèle définitif pour une exposition de service sécurisée, privée et multi-locataire. Il évite l’exposition à l’internet public, les problèmes de chevauchement d’IP et les configurations complexes d’appairage de VNet.