Развернуть инфраструктуру AWS, включающую более 100 аккаунтов, с согласованными средствами защиты, журналированием и управлением идентификацией с первого дня.
→AWS Control Tower как целевая зона. Account Factory выделяет аккаунты; обязательные и настоятельно рекомендуемые средства защиты обеспечивают базовые настройки; централизованный архив журналов + аккаунты аудита создаются автоматически.
Почему: Control Tower кодифицирует хорошо спроектированный шаблон с несколькими аккаунтами. Создание с нуля только через Organizations вручную воспроизводит ту же инфраструктуру.
Источник↗
Необходимо добавить пользовательские средства защиты и ресурсы сверх стандартных настроек Control Tower для всех аккаунтов.
→Customizations for AWS Control Tower (CfCT). Конвейер шаблонов CloudFormation + SCPs развертывается через StackSets для организационных единиц (OUs).
Почему: CfCT расширяет Control Tower, не нарушая его жизненный цикл. Пользовательские правила Config, базовые настройки безопасности, сетевые настройки — все это контролируется версиями и может быть повторно развернуто.
Источник↗
Обеспечить S3 KMS шифрование + автоматическое исправление несоответствующих бакетов в 300 аккаунтах менее чем за 15 минут.
→Пакет соответствия AWS Config для всей организации через делегированного администратора. Правило Config + документ SSM Automation для автоматического исправления.
Почему: Пакеты соответствия развертывают правила Config + исправления по всей организации из одного аккаунта. Подходы, основанные на Lambda для каждого аккаунта или только на SCP, пропускают либо обнаружение в реальном времени, либо исправление.
Источник↗
Защищенные от подделки журналы CloudTrail по всем аккаунтам хранятся 7 лет; только команда безопасности может их читать.
→Организационный журнал, доставляемый в S3 бакет выделенного аккаунта для ведения журналов. Object Lock в режиме Compliance с 7-летним сроком хранения. SCP, ограничивающий доступ к бакету для IAM ролей безопасности.
Почему: Object Lock в режиме Compliance блокирует удаление даже для root-пользователя. Организационный журнал собирает данные со всех аккаунтов автоматически. Выделенный аккаунт для журналов изолирует радиус поражения.
Источник↗
Федерация 150 аккаунтов с корпоративным AD через SAML; назначение разрешений по группам AD.
→IAM Identity Center с внешним поставщиком идентификации SAML 2.0. Наборы разрешений, сопоставленные с группами AD через SCIM-провижининг. Назначения аккаунтов через группы.
Почему: Identity Center централизует федерацию по всем аккаунтам организации. Наборы разрешений могут быть переиспользованы между аккаунтами; SCIM поддерживает синхронизацию состояния пользователей/групп.
Источник↗
Предоставить доступ к ресурсам, помеченным центром затрат пользователя, масштабируя до тысяч пользователей.
→Управление доступом на основе атрибутов (ABAC) в Identity Center. Передача атрибутов AD через SAML; наборы разрешений ссылаются на `aws:PrincipalTag/CostCenter` по отношению к `aws:ResourceTag/CostCenter`.
Почему: ABAC масштабируется без изменений политик для каждого пользователя. Добавление нового центра затрат — это просто тег, без переписывания IAM.
Источник↗
Аккаунт CI/CD принимает роль развертывания в 50 аккаунтах с рабочими нагрузками для запуска CloudFormation.
→IAM роль для каждого аккаунта с рабочей нагрузкой с политикой доверия, разрешающей основной объект аккаунта CI/CD. CI/CD принимает через STS AssumeRole. Используйте внешний ID, если инициируется сторонним инструментом.
Почему: Внешний ID предотвращает проблему "запутанного заместителя". Цепочка ролей жестко ограничивает сессию одним часом, даже если роль позволяет дольше.
Источник↗
Центральная сетевая команда владеет VPC; 30 дочерних аккаунтов развертывают рабочие нагрузки в общих подсетях.
→AWS RAM предоставляет доступ к подсетям участникам. Участники запускают ресурсы, не владея VPC; центральная команда сохраняет контроль над таблицей маршрутизации и NAT.
Почему: Общие VPC устраняют разрастание VPC для каждого аккаунта + дублирование IPAM. Участники не могут удалить VPC или изменить маршрутизацию.
Источник↗
Подключение VPC в 5 регионах + локальная среда с детерминированной маршрутизацией и централизованной инспекцией.
→Transit Gateway в каждом регионе. Пиринг TGW для межрегионального соединения. Инспекционная VPC с устройствами, доступными через таблицы маршрутизации TGW.
Почему: Пиринг TGW избегает полной сетки межрегиональных VPN/пирингов. Таблицы маршрутизации для каждого подключения позволяют службе безопасности проверять конкретные потоки, не нарушая другие.
Источник↗
Создание глобальной частной сети между регионами + филиалами с маршрутизацией на основе политик — за пределами пиринга TGW.
→AWS Cloud WAN. Политика базовой сети в JSON декларативно определяет сегменты, регионы, подключения, совместное использование.
Почему: Cloud WAN заменяет дизайн TGW "хаб-и-спица" единой управляемой глобальной магистралью. Сегменты обеспечивают логическую изоляцию между регионами.
Источник↗
Локальному центру обработки данных требуется соединение 10 Гбит/с с AWS с устойчивостью к сбоям соединения и без выхода в интернет.
→Два соединения Direct Connect в разных местоположениях DX. Каждое с приватным VIF, завершающимся на Direct Connect Gateway → TGW. Отказ BGP между соединениями.
Почему: Один DX является единой точкой отказа. Различные местоположения DX защищают от общесистемных сбоев. DX Gateway позволяет одному VIF достигать нескольких регионов/VPC.
Источник↗
Соединение Direct Connect как основное; требуется автоматическое переключение на VPN.
→Site-to-Site VPN, присоединенный к тому же TGW, что и DX gateway. AWS отдает предпочтение маршрутам DX BGP; VPN берет на себя управление при отзыве DX BGP.
Почему: Приоритет маршрутов BGP делает переключение автоматическим. Предварительно настроенный VPN избегает задержки подготовки во время сбоя.
Источник↗
Регулятор требует шифрования уровня 2 между локальной средой и AWS через Direct Connect.
→Direct Connect с MACsec на выделенном соединении 10 Гбит/с или 100 Гбит/с. Предварительно общий ключ настроен на обоих концах.
Почему: IPsec работает на уровне 3; MACsec шифрует на уровне 2 на скорости линии, удовлетворяя регуляторам, которые требуют шифрования физического канала.
Источник↗
Восточно-западный трафик между VPC должен проходить stateful-инспекцию.
→Централизованная инспекционная VPC с AWS Network Firewall. Таблицы маршрутизации TGW направляют трафик между VPC через VPC-фаервол, прежде чем он достигнет пункта назначения.
Почему: Network Firewall — это управляемый движок правил Suricata для stateful-инспекции. Централизация позволяет избежать разрастания фаерволов для каждой VPC.
Источник↗
Автоматическое применение базовой конфигурации WAF + Network Firewall для каждого аккаунта в организации.
→AWS Firewall Manager с делегированным администратором. Политики для WAF, Shield Advanced, Network Firewall, групп безопасности применяются по всей организации.
Почему: Firewall Manager автоматически присоединяет политики к новым ресурсам. Без него каждый аккаунт отклоняется от базовой конфигурации по мере добавления аккаунтов.
Источник↗
Централизация результатов Security Hub из более чем 100 аккаунтов в одном интерфейсе.
→Делегированный администратор Security Hub. Регион агрегации собирает результаты из всех дочерних аккаунтов + всех включенных регионов в одну консоль.
Почему: Без агрегации результаты остаются для каждого аккаунта/региона. Делегированный администратор позволяет избежать использования управляющего аккаунта для операций безопасности.
Источник↗
Включение GuardDuty для всей организации с централизованным мониторингом и видимостью выставления счетов для каждого аккаунта.
→GuardDuty с делегированным администратором. Автоматическое включение для новых аккаунтов через интеграцию с организацией. Результаты агрегируются в аккаунте администратора.
Почему: Автоматическое включение устраняет пробелы в мониторинге для вновь созданных аккаунтов.
Источник↗
Непрерывное обнаружение PII во всех S3 бакетах в 200 аккаунтах.
→Macie с делегированным администратором. Автоматическое включение для всей организации. Результаты поступают в Security Hub для унифицированного анализа.
Почему: Macie не может читать данные между аккаунтами без явной настройки. Конфигурация на уровне организации гарантирует, что каждый бакет находится в зоне действия.
Источник↗
Исследование результатов GuardDuty путем корреляции CloudTrail + VPC Flow Logs между аккаунтами.
→Делегированный администратор Amazon Detective в выделенном аккаунте безопасности. Дочерние аккаунты вносят вклад в граф поведения.
Почему: Detective автоматически строит граф поведения из VPC Flow Logs, CloudTrail, GuardDuty. Делегированный администратор (не управляющий) соответствует лучшим практикам AWS.
Источник↗
Обнаружение случаев, когда какой-либо ресурс в организации предоставляется внешнему аккаунту.
→IAM Access Analyzer с организацией в качестве доверенной зоны, делегированной аккаунту безопасности. Результаты по меж-аккаунтному доступу в S3, IAM ролях, KMS ключах, Lambda, SQS, Secrets.
Почему: Access Analyzer использует формальную верификацию, а не сопоставление с шаблонами. Доверенная зона на уровне организации рассматривает дочерние аккаунты как доверенные.
Источник↗
Максимизация использования Savings Plan в 50 аккаунтах с несовпадающими паттернами рабочих нагрузок.
→Консолидированный биллинг в Organizations с включенным совместным использованием Savings Plans + RI. Планы, приобретенные в аккаунте плательщика, распространяются на всю организацию.
Почему: Совместное использование объединяет потребление, так что неиспользуемая емкость в одном аккаунте компенсирует спрос в другом. Отключайте совместное использование только для изоляции распределения затрат.
Источник↗
Предоставить командам приложений возможность самостоятельного развертывания утвержденной инфраструктуры (VPC, RDS) без прав администратора IAM.
→Портфолио AWS Service Catalog. Предварительно одобренные продукты CloudFormation с ограничениями. Совместное использование портфолио между аккаунтами через Organizations.
Почему: Обеспечивает самообслуживание с ограничениями. Политики ограничений скрывают сложность (типы инстансов, теги), в то время как продукты несут область действия IAM для запуска.
Источник↗
Последовательное применение обязательных тегов `CostCenter` и `Environment` по всей организации.
→Политики тегов Organizations, привязанные к организационным единицам (OUs). Определите разрешенные значения + капитализацию. Объедините с правилом Config `required-tags` для обеспечения соблюдения.
Почему: Политики тегов проверяют; правила Config обнаруживают несоответствие. SCPs могут запрещать создание ресурсов без тегов.
Источник↗
Предотвратить действия root-пользователя в дочерних аккаунтах (требование соответствия).
→SCP, запрещающий любое действие, когда `aws:PrincipalArn` совпадает с `arn:aws:iam::*:root`.
Почему: SCPs применяются даже к root. IAM не может запретить root. Действия root никогда не должны требоваться, кроме восстановления аккаунта.
Источник↗
Обязательное использование планов AWS Backup по всем аккаунтам с согласованным сроком хранения.
→Политики резервного копирования Organizations, привязанные к организационным единицам (OUs). Определите планы + критерии выбора; применяйте автоматически к ресурсам в области действия.
Почему: Дублирование планов Backup для каждого аккаунта приводит к расхождениям. Политики организации обеспечивают единый источник истины.
Источник↗
100+ VPC, каждая с NAT Gateway, приводит к раздуванию затрат. Нужна одна точка выхода.
→Централизованная исходящая VPC с NAT Gateway. Дочерние VPC маршрутизируют 0.0.0.0/0 → TGW → исходящая VPC → NAT.
Почему: Один NAT вместо 100 значительно сокращает затраты. Применяются правила передачи данных TGW между регионами, поэтому тщательно проектируйте межрегиональный трафик.
Источник↗
EC2 в VPC должен разрешать имена хостов локальной среды; локальная среда должна разрешать частные DNS-имена VPC.
→Входящие + исходящие конечные точки Route 53 Resolver. Правила перенаправления отправляют запросы `corp.local` в локальную среду; локальный DNS перенаправляет `*.compute.internal` на входящую конечную точку.
Почему: Конечные точки Resolver — это высокодоступные ENI в двух зонах доступности. Условное перенаправление обеспечивает двунаправленное разрешение без exposing DNS в интернет.
Источник↗
Внутренние сервисы нуждаются в разрешении DNS из нескольких VPC через аккаунты.
→Частная размещенная зона Route 53, связанная с VPC из нескольких аккаунтов через меж-аккаунтное связывание VPC.
Почему: Одна PHZ, совместно используемая через меж-аккаунтное связывание, лучше, чем дубликаты для каждой VPC, которые могут расходиться.
Источник↗
Рабочие нагрузки Windows нуждаются в полноценном AD с доверием к локальному лесу.
→AWS Managed Microsoft AD. Установите двустороннее доверие к лесу с локальным AD через DX/VPN.
Почему: Managed AD — это настоящий Microsoft AD (контроллеры домена в двух зонах доступности, расширяемая схема). AD Connector только проксирует; Simple AD не поддерживает доверие.
Источник↗
Приложения в AWS должны аутентифицироваться с помощью существующего локального AD без репликации идентификаторов.
→AD Connector. Действует как прокси из VPC к локальному AD через DX/VPN.
Почему: Данные каталога не покидают локальную среду; запросы аутентификации проходят через него. Задержка зависит от канала.
Источник↗
Рабочая нагрузка, чувствительная к задержкам, должна работать в конкретном центре обработки данных, но управляться через AWS API.
→AWS Outposts rack/server. Те же AWS API (EC2, EBS, ECS, EKS, подмножество RDS) работают локально. Подключается к родительскому региону.
Почему: Для субмиллисекундной локальной задержки до локальных систем или для обеспечения резидентности данных, где Local Zones не покрывают. Single-AZ — для HA сопрягите два Outposts.
Источник↗
Уменьшить задержку для конечных пользователей в крупном городе, который находится далеко от родительского региона.
→AWS Local Zones. Развертывание вычислений, хранилища близко к населенным пунктам; плоскость данных маршрутизируется обратно в родительский регион для плоскости управления.
Почему: Local Zones размещают EC2/EBS/RDS/ELB рядом с крупными городами. Дешевле, чем Outposts, когда полное владение ЦОД не требуется.
Источник↗
Приложение требует одноразрядной миллисекундной задержки для мобильных пользователей в сети 5G.
→AWS Wavelength Zones в сетях 5G операторов. Развертывание EC2/EBS на периферии оператора; трафик остается в сети мобильного провайдера.
Почему: Полностью исключает публичный интернет-переход для сценариев использования 5G, таких как AR/VR, вывод данных в реальном времени, игры.
Источник↗
Аудитор соответствия требованиям нуждается в текущей конфигурации каждого ресурса по всей организации.
→Агрегатор AWS Config в аккаунте аудита, охватывающий всю организацию во всех регионах.
Почему: Агрегатор Config — это представление всей организации только для чтения. Агрегаторы не включают Config в дочерних аккаунтах — это отдельная функция.
Источник↗
Журналы CloudWatch Logs из 50 аккаунтов должны попасть в один S3-архив для приема в SIEM.
→Фильтры подписки в каждом аккаунте → меж-аккаунтный Kinesis Data Stream / Firehose → S3 в аккаунте журналирования.
Почему: Фильтры подписки позволяют группам журналов отправлять данные в реальном времени. Firehose обрабатывает пакетирование, сжатие, секционирование S3.
Источник↗
Непрерывное создание отчетов об доказательствах для SOC 2, PCI, HIPAA по всей организации.
→AWS Audit Manager. Предустановленные фреймворки сопоставляют элементы управления с доказательствами AWS (Config, CloudTrail, Security Hub). Делегированный администратор в аккаунте безопасности.
Почему: Audit Manager автоматически собирает доказательства по каждому контролю. Экономит сотни часов ручного сбора скриншотов за каждый цикл аудита.
Источник↗
Развернуть базовую роль IAM для каждого существующего + будущего аккаунта в организации.
→CloudFormation StackSets с управляемыми сервисом разрешениями + автоматическое развертывание в новых аккаунтах. Ориентировано на всю организацию или конкретные организационные единицы.
Почему: Самоуправляемые StackSets требуют IAM в каждом аккаунте. Управляемые сервисом используют разрешения организации и являются стандартными для Organizations.
Источник↗
После нескольких месяцев работы StackSets, подозревается, что ручные изменения привели к расхождению.
→Инициировать обнаружение расхождений в StackSet. Просмотреть результаты для каждого экземпляра стека без изменения ресурсов.
Почему: Обнаружение расхождений сравнивает текущую конфигурацию ресурсов с шаблоном. Повторное развертывание StackSets для "исправления" расхождений может привести к непреднамеренным изменениям.
Источник↗