Mettre en place un environnement AWS de plus de 100 comptes avec des garde-fous, une journalisation et une identité cohérents dès le premier jour.
→AWS Control Tower comme zone d'atterrissage. Account Factory provisionne les comptes; des garde-fous obligatoires et fortement recommandés imposent les bases; des comptes d'archivage de journaux centralisés + d'audit sont créés automatiquement.
Pourquoi: Control Tower codifie le modèle multi-comptes bien architecturé. Construire à partir de zéro via Organizations seul reproduit la même plomberie manuellement.
Référence↗
Besoin d'ajouter des garde-fous et des ressources personnalisés au-delà des valeurs par défaut de Control Tower sur tous les comptes.
→Customizations for AWS Control Tower (CfCT). Pipeline de modèles CloudFormation + SCPs déployés via StackSets vers les OUs.
Pourquoi: CfCT étend Control Tower sans interrompre son cycle de vie. Règles Config personnalisées, bases de sécurité, réseau — tout est versionné et rejouable.
Référence↗
Appliquer le chiffrement S3 KMS + corriger automatiquement les buckets non conformes sur 300 comptes en moins de 15 minutes.
→Pack de conformité AWS Config à l'échelle de l'organisation via un administrateur délégué. Règle Config + document SSM Automation pour l'auto-remédiation.
Pourquoi: Les packs de conformité déploient les règles Config + la remédiation dans toute l'organisation à partir d'un seul compte. Les approches par Lambda par compte ou SCP uniquement manquent soit la détection en temps réel, soit la remédiation.
Référence↗
Journaux CloudTrail infalsifiables sur tous les comptes conservés 7 ans ; seule l'équipe de sécurité peut les lire.
→Trace d'organisation livrant à un bucket S3 de compte de journalisation dédié. Object Lock en mode Conformité avec une rétention de 7 ans. SCP restreignant l'accès au bucket aux rôles IAM de sécurité.
Pourquoi: Object Lock en mode Conformité bloque la suppression même par l'utilisateur root. La trace d'organisation collecte automatiquement tous les comptes. Un compte de journalisation dédié isole le rayon d'impact.
Référence↗
Fédérer 150 comptes à l'AD d'entreprise via SAML ; attribuer des permissions par groupe AD.
→IAM Identity Center avec un IdP SAML 2.0 externe. Ensembles de permissions mappés aux groupes AD via le provisionnement SCIM. Affectations de comptes via des groupes.
Pourquoi: Identity Center centralise la fédération sur tous les comptes de l'organisation. Les ensembles de permissions sont réutilisables sur plusieurs comptes ; SCIM maintient l'état des utilisateurs/groupes synchronisé.
Référence↗
Accorder l'accès aux ressources étiquetées avec le centre de coûts de l'utilisateur, s'adaptant à des milliers d'utilisateurs.
→Contrôle d'accès basé sur les attributs dans Identity Center. Transmettre les attributs AD via SAML ; les ensembles de permissions référencent `aws:PrincipalTag/CostCenter` par rapport à `aws:ResourceTag/CostCenter`.
Pourquoi: ABAC s'adapte sans modifications de politique par utilisateur. Ajouter un nouveau centre de coûts n'est qu'une balise — pas de réécriture IAM.
Référence↗
Le compte CI/CD assume un rôle de déploiement dans 50 comptes de charge de travail pour exécuter CloudFormation.
→Rôle IAM par compte de charge de travail avec une politique de confiance autorisant le principal du compte CI/CD. CI/CD assume via STS AssumeRole. Utiliser un ID externe si un outil tiers initie.
Pourquoi: L'ID externe empêche le problème du député confus. L'enchaînement de rôles limite la session à 1 heure même si le rôle permet plus.
Référence↗
L'équipe réseau centrale possède le VPC ; 30 comptes spoke déploient des charges de travail dans des sous-réseaux partagés.
→AWS RAM partage les sous-réseaux avec les comptes participants. Les participants lancent des ressources sans posséder le VPC ; l'équipe centrale conserve le contrôle de la table de routage + NAT.
Pourquoi: Les VPC partagés éliminent la prolifération de VPC par compte + l'IPAM en double. Les participants ne peuvent pas supprimer le VPC ni modifier le routage.
Référence↗
Connecter des VPCs sur 5 régions + sur site avec un routage déterministe et une inspection centrale.
→Transit Gateway dans chaque région. Peering TGW pour l'inter-région. VPC d'inspection avec des appliances accessibles via les tables de routage TGW.
Pourquoi: Le peering TGW évite un maillage complet de VPN/peering inter-régions. Les tables de routage par attachement permettent à la sécurité d'inspecter des flux spécifiques sans perturber les autres.
Référence↗
Construire un réseau privé mondial sur les régions + les sites distants avec un routage basé sur des politiques — au-delà du peering TGW.
→AWS Cloud WAN. La politique de réseau central en JSON définit de manière déclarative les segments, les régions, les attachements, le partage.
Pourquoi: Cloud WAN remplace la conception TGW "hub-of-hubs" par un seul backbone mondial géré. Les segments offrent une isolation logique entre les régions.
Référence↗
Le DC sur site a besoin d'une liaison 10 Gbps vers AWS avec une résilience aux pannes de liaison et aucune exposition à Internet.
→Deux connexions Direct Connect à des emplacements DX séparés. Chacune avec un VIF privé se terminant sur une Direct Connect Gateway → TGW. Basculement BGP entre les connexions.
Pourquoi: Un seul DX est un point de défaillance unique. Différents emplacements DX protègent contre les pannes à l'échelle du site. DX Gateway permet à un VIF d'atteindre plusieurs régions/VPC.
Référence↗
Liaison Direct Connect en tant que principale ; besoin d'un basculement VPN automatique.
→VPN Site-à-Site attaché au même TGW que la passerelle DX. AWS préfère les routes BGP DX ; le VPN prend le relais lorsque le BGP DX se retire.
Pourquoi: La préférence de route BGP rend le basculement automatique. Un VPN pré-provisionné évite les délais de provisionnement pendant la panne.
Référence↗
Le régulateur exige un chiffrement de couche 2 entre le site sur site et AWS via Direct Connect.
→Direct Connect avec MACsec sur une connexion dédiée 10 Gbps ou 100 Gbps. Clé pré-partagée configurée aux deux extrémités.
Pourquoi: IPsec fonctionne au niveau de la couche 3 ; MACsec chiffre au niveau de la couche 2 à la vitesse de la ligne, satisfaisant les régulateurs qui exigent le chiffrement de la liaison physique.
Référence↗
Le trafic est-ouest entre les VPC doit passer par une inspection avec état.
→VPC d'inspection centralisé avec AWS Network Firewall. Les tables de routage TGW dirigent le trafic inter-VPC via le VPC du pare-feu avant d'atteindre la destination.
Pourquoi: Network Firewall est le moteur de règles Suricata géré pour l'inspection avec état. La centralisation évite la prolifération de pare-feu par VPC.
Référence↗
Appliquer automatiquement une configuration WAF + Network Firewall de base sur chaque compte de l'organisation.
→AWS Firewall Manager avec administrateur délégué. Les politiques pour WAF, Shield Advanced, Network Firewall, les groupes de sécurité s'appliquent à l'échelle de l'organisation.
Pourquoi: Firewall Manager attache automatiquement les politiques aux nouvelles ressources. Sans cela, chaque compte s'écarte de la base à mesure que des comptes sont ajoutés.
Référence↗
Centraliser les résultats de Security Hub de plus de 100 comptes dans un seul tableau de bord.
→Administrateur délégué Security Hub. La région d'agrégation collecte les résultats de tous les comptes membres + toutes les régions activées dans une seule console.
Pourquoi: Sans agrégation, les résultats restent par compte/région. L'administrateur délégué évite d'utiliser le compte de gestion pour les opérations de sécurité.
Référence↗
Activer GuardDuty dans toute l'organisation avec une surveillance centrale et une visibilité de la facturation par compte.
→GuardDuty avec administrateur délégué. Activation automatique sur les nouveaux comptes via l'intégration de l'organisation. Résultats agrégés au compte administrateur.
Pourquoi: L'activation automatique comble le fossé des comptes nouvellement créés qui seraient autrement non surveillés.
Référence↗
Découverte continue des PII sur tous les buckets S3 dans 200 comptes.
→Macie avec administrateur délégué. Activation automatique à l'échelle de l'organisation. Les résultats sont transmis à Security Hub pour une révision unifiée.
Pourquoi: Macie ne peut pas lire les comptes sans configuration explicite. La configuration au niveau de l'organisation garantit que chaque bucket est inclus.
Référence↗
Enquêter sur un résultat GuardDuty en corrélant les journaux CloudTrail + VPC Flow Logs sur plusieurs comptes.
→Administrateur délégué Amazon Detective dans un compte de sécurité dédié. Les comptes membres contribuent au graphe de comportement.
Pourquoi: Detective construit automatiquement le graphe de comportement à partir des VPC Flow Logs, CloudTrail, GuardDuty. L'administrateur délégué (pas le compte de gestion) suit les meilleures pratiques AWS.
Référence↗
Détecter quand une ressource de l'organisation est partagée avec un compte externe.
→IAM Access Analyzer avec l'organisation comme zone de confiance, délégué au compte de sécurité. Résultats sur l'accès inter-comptes dans S3, les rôles IAM, les clés KMS, Lambda, SQS, Secrets.
Pourquoi: Access Analyzer utilise la vérification formelle, pas la correspondance de motifs. La zone de confiance au niveau de l'organisation traite les comptes frères comme fiables.
Référence↗
Maximiser l'utilisation des Savings Plans sur 50 comptes avec des modèles de charge de travail non concordants.
→Facturation consolidée dans Organizations avec Savings Plans + partage de RI activé. Les plans achetés dans le compte payeur sont partagés à l'échelle de l'organisation.
Pourquoi: Le partage mutualise l'utilisation afin que la capacité inutilisée dans un compte compense la demande dans un autre. Désactiver le partage uniquement pour l'isolation de l'allocation des coûts.
Référence↗
Permettre aux équipes d'applications de s'auto-approvisionner en infrastructure approuvée (VPC, RDS) sans droits d'administrateur IAM.
→Portfolios AWS Service Catalog. Produits CloudFormation pré-approuvés avec des contraintes. Partager les portfolios entre les comptes via Organizations.
Pourquoi: Fournit un self-service encadré. Les politiques de contrainte masquent la complexité (types d'instances, balises) tandis que les produits portent la portée IAM pour le lancement.
Référence↗
Appliquer des balises obligatoires `CostCenter` et `Environment` de manière cohérente dans toute l'organisation.
→Politiques de balises Organizations attachées aux OUs. Définir les valeurs autorisées + la capitalisation. Combiner avec la règle Config `required-tags` pour l'application.
Pourquoi: Les politiques de balises valident ; les règles Config détectent la non-conformité. Les SCPs peuvent refuser la création de ressources sans balises.
Référence↗
Empêcher les actions de l'utilisateur root dans les comptes membres (exigence de conformité).
→SCP refusant toute action lorsque `aws:PrincipalArn` correspond à `arn:aws:iam::*:root`.
Pourquoi: Les SCPs s'appliquent même à l'utilisateur root. IAM ne peut pas refuser l'utilisateur root. Les actions root ne devraient jamais être nécessaires, sauf pour la récupération de compte.
Référence↗
Imposer des plans AWS Backup sur tous les comptes avec une rétention cohérente.
→Politiques de sauvegarde Organizations attachées aux OUs. Définir les plans + les critères de sélection ; appliquer automatiquement aux ressources concernées.
Pourquoi: La duplication des plans de sauvegarde par compte entraîne une dérive. Les politiques d'organisation imposent une source unique de vérité.
Référence↗
Plus de 100 VPC, chacun avec une NAT Gateway, gonflent les coûts. Désir d'un point de sortie unique.
→VPC de sortie centralisé avec NAT Gateway. Les VPC spoke acheminent 0.0.0.0/0 → TGW → VPC de sortie → NAT.
Pourquoi: Une seule NAT au lieu de 100 réduit considérablement les coûts. Les règles de transfert de données inter-régions de TGW s'appliquent, il faut donc concevoir soigneusement le trafic inter-régions.
Référence↗
Les instances EC2 dans le VPC doivent résoudre les noms d'hôtes sur site ; le site sur site doit résoudre le DNS privé du VPC.
→Points de terminaison d'entrée + de sortie du Route 53 Resolver. Les règles de transfert envoient les requêtes `corp.local` sur site ; le DNS sur site transfère `*.compute.internal` au point de terminaison d'entrée.
Pourquoi: Les points de terminaison Resolver sont des ENI HA dans deux zones de disponibilité. Le transfert conditionnel offre une résolution bidirectionnelle sans exposer le DNS à Internet.
Référence↗
Les services internes ont besoin d'un DNS résolvable à partir de plusieurs VPCs sur plusieurs comptes.
→Zone hébergée privée Route 53 associée à des VPC de plusieurs comptes via une association de VPC inter-comptes.
Pourquoi: Une seule PHZ partagée via l'association inter-comptes est préférable aux doublons par VPC qui dérivent.
Référence↗
Les charges de travail Windows nécessitent un AD complet avec une relation de confiance avec la forêt sur site.
→AWS Managed Microsoft AD. Établir une relation de confiance bilatérale avec l'AD sur site via DX/VPN.
Pourquoi: Managed AD est un véritable Microsoft AD (DCs dans deux AZs, schéma extensible). AD Connector ne fait que proxy ; Simple AD manque de support de confiance.
Référence↗
Les applications dans AWS doivent s'authentifier auprès d'un AD sur site existant sans répliquer les identités.
→AD Connector. Agit comme un proxy du VPC vers l'AD sur site via DX/VPN.
Pourquoi: Aucune donnée d'annuaire ne quitte le site sur site ; les requêtes d'authentification transitent. La latence dépend de la liaison.
Référence↗
Une charge de travail sensible à la latence doit s'exécuter dans un centre de données spécifique mais être gérée via les API AWS.
→Rack/serveur AWS Outposts. Les mêmes API AWS (EC2, EBS, ECS, EKS, sous-ensemble RDS) s'exécutent sur site. Se connecte à une région parente.
Pourquoi: Pour une latence locale inférieure à la milliseconde vers les systèmes sur site ou la résidence des données là où les Local Zones ne couvrent pas. Mono-AZ — coupler deux Outposts pour la HA.
Référence↗
Réduire la latence pour les utilisateurs finaux dans une métropole éloignée de la région parente.
→AWS Local Zones. Déployer le calcul, le stockage près des centres de population ; le plan de données est acheminé vers la région parente pour le plan de contrôle.
Pourquoi: Les Local Zones hébergent EC2/EBS/RDS/ELB près des grandes villes. Moins cher que les Outposts lorsque la pleine propriété du DC n'est pas nécessaire.
Référence↗
L'application nécessite une latence de quelques millisecondes pour les utilisateurs mobiles sur 5G.
→Zones AWS Wavelength dans les réseaux 5G des opérateurs. Déployer EC2/EBS en périphérie de l'opérateur ; le trafic reste sur le réseau du fournisseur mobile.
Pourquoi: Élimine entièrement le saut sur l'Internet public pour les cas d'utilisation 5G comme la réalité augmentée/virtuelle, l'inférence en temps réel, les jeux.
Référence↗
L'auditeur de conformité a besoin de la configuration actuelle de chaque ressource dans toute l'organisation.
→Agrégateur AWS Config dans le compte d'audit, avec une portée sur l'ensemble de l'organisation et toutes les régions.
Pourquoi: L'agrégateur Config est la vue en lecture seule à l'échelle de l'organisation. Les agrégateurs n'activent pas Config dans les comptes membres — c'est une action distincte.
Référence↗
Les journaux CloudWatch de 50 comptes doivent atterrir dans une archive S3 unique pour l'ingestion SIEM.
→Filtres d'abonnement dans chaque compte → Kinesis Data Stream / Firehose inter-comptes → S3 dans le compte de journalisation.
Pourquoi: Les filtres d'abonnement permettent aux groupes de journaux de pousser en temps réel. Firehose gère le traitement par lots, la compression, le partitionnement S3.
Référence↗
Générer des rapports de preuves pour SOC 2, PCI, HIPAA en continu sur toute l'organisation.
→AWS Audit Manager. Les cadres pré-construits mappent les contrôles aux preuves AWS (Config, CloudTrail, Security Hub). Administrateur délégué dans le compte de sécurité.
Pourquoi: Audit Manager collecte automatiquement les preuves par contrôle. Permet d'économiser des centaines d'heures de collecte manuelle de captures d'écran par cycle d'audit.
Référence↗
Déployer un rôle IAM de base sur tous les comptes existants et futurs de l'organisation.
→CloudFormation StackSets avec des permissions gérées par le service + déploiement automatique sur les nouveaux comptes. Cibler l'ensemble de l'organisation ou des OUs spécifiques.
Pourquoi: Les StackSets auto-gérés nécessitent IAM dans chaque compte. Les StackSets gérés par le service exploitent les permissions de l'organisation et sont la valeur par défaut pour Organizations.
Référence↗
Après des mois d'exécution de StackSets, soupçonner que des modifications manuelles ont causé une dérive.
→Initier la détection de dérive sur le StackSet. Examiner les résultats par instance de stack sans modifier les ressources.
Pourquoi: La détection de dérive compare la configuration des ressources en direct au modèle. Le redéploiement de StackSets pour "corriger" la dérive peut entraîner des modifications involontaires.
Référence↗