Establecer un entorno AWS de más de 100 cuentas con barreras de seguridad, registro e identidad consistentes desde el primer día.
→AWS Control Tower como zona de aterrizaje. Account Factory aprovisiona cuentas; las barreras de seguridad obligatorias + fuertemente recomendadas imponen líneas base; el archivo de registros centralizado + las cuentas de auditoría se crean automáticamente.
Por qué: Control Tower codifica el patrón de múltiples cuentas bien arquitectado. Construir desde cero solo con Organizations reproduce la misma infraestructura manualmente.
Referencia↗
Necesidad de añadir barreras de seguridad y recursos personalizados más allá de los valores predeterminados de Control Tower en todas las cuentas.
→Customizations for AWS Control Tower (CfCT). Pipeline de plantillas CloudFormation + SCPs desplegados mediante StackSets a las OUs.
Por qué: CfCT extiende Control Tower sin romper su ciclo de vida. Reglas de Config personalizadas, líneas base de seguridad, redes, todo versionado y reproducible.
Referencia↗
Aplicar el cifrado S3 KMS + remediar automáticamente los buckets no conformes en 300 cuentas en <15 minutos.
→Paquete de conformidad de AWS Config a nivel de organización a través de un administrador delegado. Regla de Config + documento de automatización SSM para la remediación automática.
Por qué: Los paquetes de conformidad despliegan reglas de Config + remediación en toda la organización desde una cuenta. Los enfoques de Lambda por cuenta o solo SCPs omiten la detección en tiempo real o la remediación.
Referencia↗
Registros de CloudTrail a prueba de manipulaciones en todas las cuentas retenidos durante 7 años; solo el equipo de seguridad puede leerlos.
→Ruta de organización entregando a un bucket S3 de una cuenta de registro dedicada. Object Lock en modo de cumplimiento con retención de 7 años. SCP que restringe el acceso al bucket a los roles IAM de seguridad.
Por qué: Object Lock en modo de cumplimiento bloquea la eliminación incluso por el usuario root. La ruta de organización recopila automáticamente de todas las cuentas. La cuenta de registro dedicada aísla el radio de impacto.
Referencia↗
Federar 150 cuentas a un AD corporativo a través de SAML; asignar permisos por grupo de AD.
→IAM Identity Center con IdP externo SAML 2.0. Conjuntos de permisos mapeados a grupos de AD mediante aprovisionamiento SCIM. Asignaciones de cuenta mediante grupos.
Por qué: Identity Center centraliza la federación en todas las cuentas de la organización. Los conjuntos de permisos son reutilizables entre cuentas; SCIM mantiene el estado de usuario/grupo sincronizado.
Referencia↗
Conceder acceso a recursos etiquetados con el centro de costos del usuario, escalando a miles de usuarios.
→Control de acceso basado en atributos (ABAC) en Identity Center. Pasar atributos de AD vía SAML; los conjuntos de permisos referencian `aws:PrincipalTag/CostCenter` contra `aws:ResourceTag/CostCenter`.
Por qué: ABAC escala sin cambios de política por usuario. Añadir un nuevo centro de costos es solo una etiqueta, sin reescritura de IAM.
Referencia↗
La cuenta de CI/CD asume un rol de despliegue en 50 cuentas de carga de trabajo para ejecutar CloudFormation.
→Rol de IAM por cuenta de carga de trabajo con política de confianza que permite el principal de la cuenta de CI/CD. CI/CD asume vía STS AssumeRole. Usar external ID si una herramienta de terceros inicia.
Por qué: External ID previene el problema del "confused deputy". El encadenamiento de roles limita la sesión a 1 hora incluso si el rol permite más tiempo.
Referencia↗
El equipo de red central posee la VPC; 30 cuentas "spoke" despliegan cargas de trabajo en subredes compartidas.
→AWS RAM comparte subredes con cuentas participantes. Los participantes lanzan recursos sin poseer la VPC; el equipo central mantiene el control de la tabla de rutas + NAT.
Por qué: Las VPCs compartidas eliminan la proliferación de VPCs por cuenta + la duplicación de IPAM. Los participantes no pueden eliminar la VPC ni cambiar el enrutamiento.
Referencia↗
Conectar VPCs en 5 regiones + en local con enrutamiento determinista e inspección central.
→Transit Gateway en cada región. Peering de TGW para inter-regiones. VPC de inspección con dispositivos accesibles a través de tablas de rutas de TGW.
Por qué: El peering de TGW evita la malla completa de VPN/peering inter-regiones. Las tablas de rutas por adjunto permiten a seguridad inspeccionar flujos específicos sin romper otros.
Referencia↗
Construir una red privada global en regiones + sucursales con enrutamiento basado en políticas — más allá del peering de TGW.
→AWS Cloud WAN. La política de red central en JSON define declarativamente segmentos, regiones, adjuntos, compartición.
Por qué: Cloud WAN reemplaza el diseño de TGW "hub-of-hubs" con un único backbone global gestionado. Los segmentos proporcionan aislamiento lógico entre regiones.
Referencia↗
Un centro de datos local necesita un enlace de 10 Gbps a AWS con resiliencia ante fallos de enlace y sin exposición a internet.
→Dos conexiones Direct Connect en ubicaciones DX separadas. Cada una con un VIF privado que termina en un Direct Connect Gateway → TGW. Conmutación por error BGP entre conexiones.
Por qué: Un solo DX es un único punto de fallo. Diferentes ubicaciones de DX protegen contra interrupciones en todo el sitio. DX Gateway permite que un VIF alcance múltiples regiones/VPCs.
Referencia↗
Enlace Direct Connect como principal; se necesita conmutación por error VPN automática.
→VPN de sitio a sitio adjunta al mismo TGW que el DX gateway. AWS prefiere las rutas BGP de DX; la VPN toma el control cuando DX BGP se retira.
Por qué: La preferencia de ruta BGP hace que la conmutación por error sea automática. La VPN pre-aprovisionada evita el retraso de aprovisionamiento durante la interrupción.
Referencia↗
El regulador exige cifrado de capa 2 entre el entorno local y AWS a través de Direct Connect.
→Direct Connect con MACsec en una conexión dedicada de 10 Gbps o 100 Gbps. Clave precompartida configurada en ambos extremos.
Por qué: IPsec funciona en la capa 3; MACsec cifra en la capa 2 a velocidad de línea, satisfaciendo a los reguladores que exigen cifrado de enlace físico.
Referencia↗
El tráfico este-oeste entre VPCs debe pasar por una inspección con estado.
→VPC de inspección centralizada con AWS Network Firewall. Las tablas de rutas de TGW dirigen el tráfico entre VPCs a través de la VPC del firewall antes de llegar al destino.
Por qué: Network Firewall es el motor de reglas Suricata gestionado para la inspección con estado. La centralización evita la proliferación de firewalls por VPC.
Referencia↗
Aplicar automáticamente una configuración base de WAF + Network Firewall en cada cuenta de la organización.
→AWS Firewall Manager con administrador delegado. Las políticas para WAF, Shield Advanced, Network Firewall, grupos de seguridad se aplican en toda la organización.
Por qué: Firewall Manager adjunta automáticamente políticas a los nuevos recursos. Sin él, cada cuenta se desvía de la línea base a medida que se añaden cuentas.
Referencia↗
Centralizar los hallazgos de Security Hub de más de 100 cuentas en un solo panel.
→Administrador delegado de Security Hub. La región de agregación recopila los hallazgos de todas las cuentas miembro + todas las regiones habilitadas en una sola consola.
Por qué: Sin agregación, los hallazgos permanecen por cuenta/región. El administrador delegado evita usar la cuenta de gestión para operaciones de seguridad.
Referencia↗
Habilitar GuardDuty en toda la organización con monitoreo centralizado y visibilidad de facturación por cuenta.
→GuardDuty con administrador delegado. Habilitación automática en nuevas cuentas a través de la integración de la organización. Hallazgos agregados a la cuenta de administrador.
Por qué: La habilitación automática cierra la brecha en las cuentas recién creadas que de otro modo no serían monitoreadas.
Referencia↗
Descubrimiento continuo de PII en todos los buckets de S3 en 200 cuentas.
→Macie con administrador delegado. Habilitación automática a nivel de organización. Los hallazgos fluyen a Security Hub para una revisión unificada.
Por qué: Macie no puede leer entre cuentas sin una configuración explícita. La configuración a nivel de organización garantiza que cada bucket esté dentro del alcance.
Referencia↗
Investigar un hallazgo de GuardDuty correlacionando CloudTrail + VPC Flow Logs entre cuentas.
→Administrador delegado de Amazon Detective en una cuenta de seguridad dedicada. Las cuentas miembro contribuyen al grafo de comportamiento.
Por qué: Detective construye automáticamente el grafo de comportamiento a partir de VPC Flow Logs, CloudTrail, GuardDuty. El administrador delegado (no de gestión) sigue las mejores prácticas de AWS.
Referencia↗
Detectar cuándo cualquier recurso de la organización se comparte con una cuenta externa.
→IAM Access Analyzer con la organización como zona de confianza, delegada a la cuenta de seguridad. Hallazgos sobre el acceso entre cuentas en S3, roles de IAM, claves KMS, Lambda, SQS, Secrets.
Por qué: Access Analyzer utiliza verificación formal, no coincidencia de patrones. La zona de confianza a nivel de organización trata a las cuentas hermanas como confiables.
Referencia↗
Maximizar la utilización de Savings Plan en 50 cuentas con patrones de carga de trabajo dispares.
→Facturación consolidada en Organizations con Savings Plans + compartición de RI habilitada. Los planes comprados en la cuenta pagadora se comparten en toda la organización.
Por qué: Compartir agrupa el uso para que la capacidad no utilizada en una cuenta compense la demanda en otra. Desactivar la compartición solo para el aislamiento de la asignación de costos.
Referencia↗
Permitir que los equipos de aplicaciones se autoabastezcan de infraestructura aprobada (VPCs, RDS) sin derechos de administrador de IAM.
→Portafolios de AWS Service Catalog. Productos CloudFormation pre-aprobados con restricciones. Compartir portafolios entre cuentas a través de Organizations.
Por qué: Proporciona autoservicio con barreras de seguridad. Las políticas de restricción ocultan la complejidad (tipos de instancia, etiquetas) mientras que los productos llevan el alcance de IAM para el lanzamiento.
Referencia↗
Aplicar etiquetas obligatorias `CostCenter` y `Environment` de manera consistente en toda la organización.
→Políticas de etiquetas de Organizations adjuntas a las OUs. Definir valores permitidos + capitalización. Combinar con la regla de Config `required-tags` para su aplicación.
Por qué: Las políticas de etiquetas validan; las reglas de Config detectan el incumplimiento. Los SCPs pueden denegar la creación de recursos que carecen de etiquetas.
Referencia↗
Prevenir acciones de usuario root en cuentas miembro (requisito de cumplimiento).
→SCP denegando cualquier acción cuando `aws:PrincipalArn` coincide con `arn:aws:iam::*:root`.
Por qué: Los SCPs se aplican incluso al usuario root. IAM no puede denegar el acceso root. Las acciones root nunca deberían ser necesarias excepto para la recuperación de cuentas.
Referencia↗
Exigir planes de AWS Backup en todas las cuentas con retención consistente.
→Políticas de copia de seguridad de Organizations adjuntas a las OUs. Definir planes + criterios de selección; aplicar automáticamente a los recursos en el ámbito.
Por qué: La duplicación del plan de Backup por cuenta lleva a la deriva. Las políticas de la organización imponen una única fuente de verdad.
Referencia↗
Más de 100 VPCs, cada una con NAT Gateway, está inflando los costos. Se desea un único punto de salida.
→VPC de salida centralizada con NAT Gateway. Las VPCs "spoke" enrutan 0.0.0.0/0 → TGW → VPC de salida → NAT.
Por qué: Un NAT en lugar de 100 reduce drásticamente el costo. Se aplican las reglas de transferencia de datos entre regiones de TGW, por lo que el diseño debe ser cuidadoso para el tráfico inter-regiones.
Referencia↗
Las instancias EC2 en VPC necesitan resolver nombres de host locales; el entorno local debe resolver el DNS privado de la VPC.
→Puntos de conexión entrantes + salientes de Route 53 Resolver. Las reglas de reenvío envían `corp.local` consultas al entorno local; el DNS local reenvía `*.compute.internal` al punto de conexión entrante.
Por qué: Los puntos de conexión de Resolver son ENIs de alta disponibilidad en dos AZs. El reenvío condicional proporciona resolución bidireccional sin exponer el DNS a internet.
Referencia↗
Los servicios internos necesitan DNS resoluble desde múltiples VPCs en diferentes cuentas.
→Zona alojada privada de Route 53 asociada con VPCs de múltiples cuentas a través de una asociación de VPCs entre cuentas.
Por qué: Una sola PHZ compartida a través de asociación entre cuentas supera a las duplicadas por VPC que se desvían.
Referencia↗
Las cargas de trabajo de Windows necesitan un AD completo con confianza en el bosque local.
→AWS Managed Microsoft AD. Establecer confianza bidireccional de bosque con el AD local a través de DX/VPN.
Por qué: Managed AD es un Microsoft AD real (DCs en dos AZs, esquema extensible). AD Connector solo actúa como proxy; Simple AD carece de soporte de confianza.
Referencia↗
Las aplicaciones en AWS necesitan autenticarse contra un AD local existente sin replicar identidades.
→AD Connector. Actúa como proxy desde la VPC hacia el AD local a través de DX/VPN.
Por qué: Ningún dato de directorio sale del entorno local; las solicitudes de autenticación pasan a través. La latencia depende del enlace.
Referencia↗
La carga de trabajo sensible a la latencia debe ejecutarse en un centro de datos específico pero ser gestionada a través de las APIs de AWS.
→Rack/servidor AWS Outposts. Las mismas APIs de AWS (EC2, EBS, ECS, EKS, un subconjunto de RDS) se ejecutan en el entorno local. Se conecta a una región padre.
Por qué: Para latencia local de sub-milisegundos a sistemas locales o residencia de datos donde las Zonas Locales no cubren. Una sola AZ — emparejar dos Outposts para alta disponibilidad.
Referencia↗
Reducir la latencia para los usuarios finales en un área metropolitana que está lejos de la región padre.
→AWS Local Zones. Desplegar cómputo y almacenamiento cerca de los centros de población; el plano de datos se enruta de vuelta a la región padre para el plano de control.
Por qué: Las Local Zones alojan EC2/EBS/RDS/ELB cerca de las principales ciudades. Más barato que Outposts cuando no se necesita la propiedad completa del centro de datos.
Referencia↗
La aplicación requiere una latencia de un solo dígito de milisegundos para usuarios móviles en 5G.
→AWS Wavelength Zones en redes 5G de operadores. Desplegar EC2/EBS en el borde del operador; el tráfico permanece en la red del proveedor móvil.
Por qué: Elimina por completo el salto a internet público para casos de uso 5G como AR/VR, inferencia en tiempo real, juegos.
Referencia↗
El auditor de cumplimiento necesita la configuración actual de cada recurso en toda la organización.
→Agregador de AWS Config en la cuenta de auditoría, con alcance a toda la organización en todas las regiones.
Por qué: El agregador de Config es la vista de solo lectura de toda la organización. Los agregadores no habilitan Config en las cuentas miembro — eso es aparte.
Referencia↗
Los registros de CloudWatch de 50 cuentas deben llegar a un archivo S3 para la ingesta de SIEM.
→Filtros de suscripción en cada cuenta → Kinesis Data Stream / Firehose entre cuentas → S3 en la cuenta de registro.
Por qué: Los filtros de suscripción permiten que los grupos de registros se envíen en tiempo real. Firehose maneja el procesamiento por lotes, la compresión y el particionamiento de S3.
Referencia↗
Generar informes de evidencia para SOC 2, PCI, HIPAA continuamente en toda la organización.
→AWS Audit Manager. Marcos predefinidos mapean controles a evidencia de AWS (Config, CloudTrail, Security Hub). Administrador delegado en cuenta de seguridad.
Por qué: Audit Manager recopila automáticamente evidencia por control. Ahorra cientos de horas de recolección manual de capturas de pantalla por ciclo de auditoría.
Referencia↗
Desplegar un rol de IAM base en cada cuenta existente + futura de la organización.
→CloudFormation StackSets con permisos gestionados por el servicio + auto-despliegue en nuevas cuentas. Dirigir a toda la organización o a OUs específicas.
Por qué: Los StackSets autogestionados requieren IAM en cada cuenta. Los gestionados por el servicio aprovechan los permisos de la organización y son el valor predeterminado para Organizations.
Referencia↗
Después de meses ejecutando StackSets, se sospecha que los cambios manuales han causado "drift" (desviación).
→Iniciar la detección de "drift" en el StackSet. Revisar los resultados por instancia de pila sin modificar recursos.
Por qué: La detección de "drift" compara la configuración de los recursos en vivo con la plantilla. Volver a desplegar StackSets para "arreglar" el "drift" puede causar cambios no deseados.
Referencia↗