SAP-C02_3
SAP-C02の問題集(75問)
問題一覧
1
AWS Step FunctionsとAWS Lambdaを使用するアプリケーション層でシステムを拡張します。フォームがアップロードされたときに、フォーム上で光学式文字認識(OCR)を実行するために、Amazon TextractとAmazon Comprehendを使用するようにこのティアを構成します。Amazon S3に出力を保存します。アプリケーション層で必要なデータを抽出し、この出力を解析します。ターゲットシステムのAPIにデータを送信します
2
新しいAWS WAF Web ACLを作成します。SQLデータベースのルールグループにマッチするリクエストをブロックする新しいルールを追加します。これらのルールに一致しない他のすべてのトラフィックを許可するようにWeb ACLを設定します。ECSタスクの前にあるALBにWeb ACLをアタッチします
3
各オンプレミスサーバーにAWS Application Discovery Agentをデプロイします。AWS Migration HubでData Explorationを構成します。Amazon Athenaを使用して、Amazon S3のデータに対して定義済みのクエリを実行します
4
Amazon CloudFrontが提供するAmazon S3バケットにアプリケーションフロントエンドをデプロイします。AWS Lambdaプロキシを統合したAmazon API Gatewayを使用して、アプリケーションバックエンドをデプロイします, タイムシート提出データをAmazon S3に保存します。Amazon AthenaとAmazon QuickSightを使用して、Amazon S3をデータソースとしてレポートを生成します
5
各メンバーアカウントにOrganizationAccountAccessRole IAMロールを作成します。管理アカウントにIAMロールを引き受ける権限を付与します
6
AWS Migration Hubを使用し、サーバーにAWS Application Discovery Agentをインストールします。Migration Hub Strategy Recommendationsアプリケーションデータコレクターをデプロイします。Migration Hub Strategy Recommendationsを使用してレポートを作成します
7
Amazon S3 File Gatewayをセットアップし、ドキュメントストアにリンクされるファイル共有を構成します。NFSを使用して、ファイル共有をAmazon EC2インスタンスにマウントします。Amazon S3で変更が発生したら、RefreshCache APIコールを開始し、S3 File Gatewayを更新します
8
オンデマンドキャパシティでアプリケーション用に新しいAmazon DynamoDBテーブルを作成します。DynamoDB用のゲートウェイVPCエンドポイントを使用して、DynamoDBテーブルに接続します
9
組織の管理アカウントで新しいAWS CloudTrail証跡を作成します。ログを保存するために、バージョニングをオンにした新しいAmazon S3バケットを作成します。組織内の全アカウントに証跡をデプロイします。S3バケットでMFA削除と暗号化を有効にします
10
AWS DataSyncを使用して、オンプレミスのWindowsファイルサーバーとAmazon FSxの間でデータをレプリケートするタスクを毎日スケジュールします
11
Aurora DBクラスターでIAMデータベース認証を有効にします。Lambda関数のIAMロールを変更し、IAMデータベース認証を使用してファンクションがデータベースにアクセスできるようにします。Amazon S3用のゲートウェイVPCエンドポイントをVPCにデプロイします
12
EC2インスタンスからElastic IPアドレスの関連付けを解除します。SFTPファイルホスティングに使用するAmazon S3バケットを作成します。AWS Transfer Familyサーバーを作成します。Transfer FamilyサーバーをVPCホストでインターネットに面したエンドポイントに設定します。SFTP Elastic IPアドレスを新しいエンドポイントに関連付けます。新しいエンドポイントに顧客のIPアドレスを持つセキュリティグループをアタッチします。Transfer FamilyサーバーをS3バケットに指定します。SFTPサーバーからS3バケットにすべてのファイルを同期します
13
ストリームのシャード数を増やすためにストリームをリシャードします, コンシューマロジックにエラー再試行と指数バックオフメカニズムを使用します, ファンアウト機能が強化されたコンシューマーを使用します
14
AWS Backupを使用して、ファイルシステムのポイントインタイムバックアップを作成します。バックアップを新しいFSx for Windows File Serverファイルシステムにリストアします。ストレージタイプとしてSSDを選択します。スループット容量として32 MBpsを選択します。バックアップと復元プロセスが完了したら、DNSエイリアスを適宜調整します。元のファイルシステムを削除します
15
6つのパートナーが使用するIPアドレスへのアクセスを許可するルールで、AWS WAFのWeb ACLを作成します。Web ACLをAPIに関連付けます。リクエスト制限付きの使用プランを作成し、APIに関連付けます。APIキーを作成し、使用プランに追加します
16
Amazon Route 53リゾルバを使用してDNSエンドポイントを作成します。条件付き転送ルールを追加して、オンプレミスのデータセンターとVPC間のDNSネームスペースを解決します
17
Lambda関数の新しいデプロイバージョンごとにエイリアスを作成します。AWS CLIのupdate-aliasコマンドにrouting-configパラメータを指定して負荷を分散させます
18
Amazon RDS Proxyレイヤーをデプロイします。DBインスタンスの前に。接続認証情報をAWS Secrets Managerにシークレットとして保存します
19
AWS Identity and Access Management Access Analyzerでアナライザを作成します。イベントタイプ "Access Analyzer Finding"に対して、"isPublic: true"のフィルタを持つAmazon EventBridgeルールを作成します。EventBridgeルールのターゲットとしてSNSトピックを選択します
20
AWS Systems Managerを使用して、すべてのEC2インスタンスにAmazon CloudWatchエージェントをインストールします。組織の管理アカウントで、AWS Cost Explorerからリソースの最適化の推奨事項を取得します。推奨を使用して、組織のすべてのアカウントで使用率の低いインスタンスをダウンサイジングします
21
S3 Storage Lensのデフォルトダッシュボードを使用して、バケットと暗号化のメトリクスを追跡します。コンプライアンスチームにS3コンソールで直接ダッシュボードにアクセスできるようになります
22
アカウントAのプライベートホストゾーンとアカウントBの新しいVPCを関連付ける権限を作成します, アカウントBの新しいVPCをアカウントAのホストされたゾーンに関連付けます
23
テーブルのDynamo DBAuto Scalingを有効にします
24
AuroraレプリカのAurora Auto Scalingを有効にします。ラウンドロビンルーティングとスティッキーセッションを有効にしたApplication Load Balancerを使用します
25
AWS Lambda関数を呼び出すS3イベント通知を使用します
26
WebサーバーVMのAMIを作成します。AMIとApplication Load Balancerを使用するAmazon EC2 Auto Scalingグループを作成します。オンプレミスのメッセージングキューを置き換えるためにAmazon MQをセットアップします。注文処理のバックエンドをホストするためにAmazon Elastic Kubernetes Service(Amazon EKS)を設定します
27
AWS Organizationsが一括請求を使用するように設定します。部門を識別するタグ戦略を実装します。Tag Editorを使用して、適切なリソースにタグを適用します。Compute Savings Plansを購入します
28
API GatewayでAPIエンドポイントをRegionalからprivateに更新します。VPCにインターフェイスVPCエンドポイントを作成します。リソースポリシーを作成し、APIにアタッチします。VPCエンドポイントを使用して、VPCからAPIを呼び出します
29
各EC2インスタンスにAmazon CloudWatchエージェントをインストールします。AWS Compute Optimizerを有効にし、少なくとも12時間実行させます。Compute Optimizerからの推奨を確認し、指示に従ってEC2インスタンスのサイズを変更します
30
AWS Organizationsで組織を作成します。組織でAWSControl Towerを有効にします。SCPに含まれるコントロール(ガードレール)を確認します。AWS Configで追加が必要な領域を確認します。必要に応じてOUを追加します。AWS IAMアイデンティティセンター(Single Sign-On)をオンプレミスのAD FSサーバに接続します
31
クラスター内のデータノード数を2に減らし、UltraWarmノードを追加して予想される容量を処理します。OpenSearch Serviceがデータをインジェストする際に、インデックスがUltraWarmに移行するように設定します。S3ライフサイクルポリシーを使用して、入力データを1ヶ月後にS3 Glacier Deep Archiveに移行します
32
AWS Application Auto Scalingを使用してピーク時のキャパシティを増やします。平均負荷に合わせて予約済みのRCUとWCUを購入します
33
すべてのキーをAWS Secrets Managerに保存します。Secrets Managerのローテーションスケジュールを定義し、Lambda関数を呼び出して新しいキーペアを生成します。EC2インスタンスの公開鍵を置き換えます。Secrets Managerで秘密鍵を更新します
34
指定したS3バケットからすべてのファイルを削除するLambda関数を実装します。このLambda関数をカスタムリソースとしてCloudFormationスタックに統合します。カスタムリソースには、S3バケットのリソースを指すDependsOn属性があることを確認します
35
AWS IAMアイデンティティセンター(AWS Single Sign-On)権限セットを作成します。適切なIAMアイデンティティセンターグループとAWSアカウントに権限セットをアタッチします, 管理アカウントにAWS IAMアイデンティティセンター(AWS Single Sign-On)をデプロイします。IAMアイデンティティセンターをAzure Active Directoryに接続します。IAMアイデンティティセンターをユーザーとグループの自動同期用に設定します, 管理アカウントとして新しいAWSアカウントを作成します。AWS Organizationsで組織をデプロイします。既存の各AWSアカウントを組織に招待します。各アカウントが招待を受け入れることを確認します
36
統一されたCloudWatchエージェントを使用して、Amazon CloudWatch Logsにログを公開するようにEC2インスタンスを構成します
37
特定のメンバーアカウントを新しいOUに関連付けます。タグポリシーと条件を使用したSCPを適用して、リージョンを制限します
38
選択したAWSリージョン内の3つのアベイラビリティゾーンに12インスタンスを分割します。各アベイラビリティゾーンで3つのインスタンスを容量予約のオンデマンドインスタンスとして実行します。各アベイラビリティゾーンで1つのインスタンスをスポットインスタンスとして実行します
39
新しいSQS標準キューをデッドレターキューとして構成し、障害のあるメッセージを分離します
40
AUTHトークンを作成します。トークンをAWS Secrets Managerに保存します。AUTHトークンを使用するように既存のクラスターを設定し、転送時の暗号化を設定します。必要に応じてSecrets ManagerからAUTHトークンを取得し、認証にAUTHトークンを使用するようにアプリケーションを更新します
41
ALBによって参照される2つ目のターゲットグループを作成します。この新しいターゲットグループのEC2インスタンスに新しいロジックをデプロイします。重み付けされたターゲットグループを使用するように、ALBリスナールールを更新します。ALBターゲットグループのスティッキネスを設定します
42
EC2インスタンスで実行されているロギングサービスのセキュリティグループを確認し、クライアントのIPアドレスからの受信を許可していることを確認します, NLBのセキュリティグループを確認し、インターフェイスのエンドポイントサブネットからの受信を許可していることを確認します
43
ENIのプールを作成します。プールのライセンスファイルをベンダーに要求し、ライセンスファイルをAmazon S3に格納します。ライセンスファイルをダウンロードし、対応するENIをAmazon EC2インスタンスにアタッチするブートストラップ自動化スクリプトを作成します, ブートストラップ自動化スクリプトを編集して、AWS Systems Manager Parameter StoreからデータベースサーバーのIPアドレスを読み取り、ローカル構成ファイルに値を注入します
44
DBインスタンスを変更して、2つのアベイラビリティゾーンにまたがるMulti-AZ配置を作成します, Elastic Load Balancerを使用して、複数のEC2インスタンスにトラフィックを分散させます。EC2インスタンスが、最低2つのインスタンス容量を持つAuto Scalingグループの一部であることを確認します, ElastiCache for Redisクラスター用のレプリケーショングループを作成します。クラスターでMulti-AZを有効にします
45
Auto ScalingグループのTerminateプロセスを一時停止します。Session Managerを使用して、unhealthyとマークされたインスタンスにログインします
46
Amazon S3でウェブアプリケーションをホストします。アップロードされた動画をAmazon S3に保存します。S3のイベント通知を使用して、SQSキューにイベントをパブリッシュします。動画を分類するためにAmazon Rekognition APIを呼び出すAWS Lambda関数でSQSキューを処理します
47
APIを複数のリージョンにデプロイします。各リージョンのAPIエンドポイントにトラフィックをルーティングするカスタムドメイン名でAmazon Route 53を設定します。Route 53の複数値回答ルーティングポリシーを実装します, 既存のシークレットマネージャーのシークレットを他のリージョンに複製します。複製された各リージョンのシークレットについて、適切なKMSキーを選択します, 新しいKMSマルチリージョンカスタマーマネージドキーを作成します。対象となる各リージョンに、新しいKMSカスタマーマネージドレプリカキーを作成します
48
Aurora Serverless v1データベースを、ソースリージョンとターゲットリージョンにまたがる標準のAurora MySQLグローバルデータベースに変更します。ターゲットリージョンでソリューションを起動します。2つのリージョンのソリューションがアクティブパッシブ構成で動作するように設定します
49
データフィードのフォーマットに基づいてAWS Glueクローラーとカスタム分類器を作成し、一致するテーブル定義を構築します。ファイル配信時にLambda関数を呼び出してAWS Glue ETLジョブを開始し、処理要件と変換要件に従ってレコード全体を変換します。出力フォーマットをJSONとして定義します。完了したら、ETLジョブは内部処理のために別のS3バケットに結果を送信します
50
Migration EvaluatorエージェントレスコレクタをESXiハイパーバイザーにデプロイします。Migration Evaluatorで収集したデータを確認します。非アクティブなサーバを特定します。非アクティブなサーバーを移行リストから削除します。AWS Migration Hubにデータをインポートします
51
AWS IoT Coreに公開するIoTデバイスの設定をします, レポートを準備し、Amazon S3にレポートを書き込むために、AWS LambdaタスクでAWS Step Functionsステートマシンを使用します。Amazon CloudFrontとS3オリジンを使ってレポートを提供します, メタデータをAmazon DocumentDBに書き込む(MongoDB互換性あり)
52
us-east-1にVPCを作成し、us-west-1にVPCを作成します。us-east-1のVPCに、複数のアベイラビリティゾーンにまたがるApplication Load Balancer(ALB)を作成します。us-east-1のVPCに、複数のアベイラビリティゾーンにまたがるEC2インスタンスをデプロイするAuto Scalingグループを作成し、Auto ScalingグループをALBの背後に配置します。us-west-1 VPCに同じ構成を設定し、Amazon Route 53ホストゾーンを作成します。ALBごとに個別のレコードを作成します。ヘルスチェックを有効にし、各レコードにフェールオーバールーティングポリシーを設定します
53
物理的なクロスリージョンレプリケーションにAuroraグローバルデータベースを使用します。静的コンテンツとリソースには、Amazon S3とリージョン間レプリケーションを使用します。ウェブ層とアプリケーション層を世界中のリージョンに展開します, レイテンシーベースのルーティングとAmazon CloudFrontディストリビューションを備えたAmazon Route 53を導入します。ウェブ層とアプリケーション層がそれぞれAuto Scalingグループにあることを確認します
54
オンプレミスのデータセンターとAWSの間にAWS Direct Connect接続を作成します。トランジットVIFをプロビジョニングし、Direct Connectゲートウェイに接続します。各リージョンのトランジットゲートウェイを使用して、Direct Connectゲートウェイを他のすべてのVPCに接続します
55
Migration Evaluatorを使用して分析を実行します。データインポートテンプレートを使用して、CMDBエクスポートからデータをアップロードします
56
指定された非本番アカウントのAWS Backup vaultを使用して、クロスアカウントバックアップを実装します, AWS Backup vaultの変更を制限するSCPを追加します, AWS Backup Vault Lockをコンプライアンスモードで実装します
57
Amazon Kinesis Data Firehoseを使用してAmazon S3にデータを保存するようにインジェストプロセスを更新します。AWS Batch withスポットインスタンスを使用して、On-Demand価格の50%を上限とするSpot価格で夜間処理を実行します
58
パブリックIPアドレスを持つインスタンスの起動を防止するSCPを作成します。さらに、既存のインスタンスにパブリックIPアドレスがアタッチされないようにSCPを構成します。SCPをOUにアタッチします
59
AWS Fargate上にAmazon Elastic Container Service(Amazon ECS)クラスターを作成します。AWS CLIのrun-taskコマンドを使用し、enableECSManagedTagsをtrueに設定して計画アプリケーションを起動します。tagsオプションを使用して、タスクにカスタムタグを割り当てます
60
Amazon SQSを使ってキューを作成します。新しいキューにパブリッシュするように、既存のWebサーバーを設定します。EC2 Auto ScalingグループのAmazon EC2インスタンスを使用して、キューからリクエストをプルし、ファイルを処理します。SQSキューの長さに基づいてEC2インスタンスをスケーリングします。処理したファイルをAmazon S3バケットに格納します
61
商品データをホストするAmazon RDS DBインスタンスを作成します。別のリージョンにDBインスタンスのリードレプリカを構成します。Amazon DynamoDBグローバルテーブルを作成し、ユーザーセッションデータをホストします
62
バックエンドサービスにAuto Scalingグループを使用します。DynamoDBのAuto Scalingを使用します
63
組織内のすべての共有サービスアカウントに、procurement-manager-roleという名前のIAMロールを作成します。AWSPrivateMarketplaceAdminFullAccess管理ポリシーをロールに追加します。procurement-manager-roleというロール以外のすべての人にPrivate Marketplaceを管理する権限を拒否するために、組織のルートレベルのSCPを作成します。別の組織ルートレベルのSCPを作成して、procurement-manager-roleという名前のIAMロールを作成する権限を組織内の全員に拒否します
64
RDS for MySQL DBインスタンスをAmazon Aurora MySQL DBクラスターに変換します。eu-west-1をセカンダリーリージョンとしてDBクラスターに追加します。DBクラスターでライトフォワーディングを有効にします。eu-west-1にアプリケーションをデプロイします。eu-west-1でAurora MySQLエンドポイントを使用するようにアプリケーションを設定します
65
Amazon EventBridgeを使用して、ユーザーが画像をアップロードしたときに発生するS3イベントを処理します。AWS Lambda関数を実行し、画像のサイズを変更し、S3バケット内の元のファイルを置き換えます。S3ライフサイクルの有効期限ポリシーを作成し、6ヶ月後に保存されているすべての画像を失効させます
66
Webアプリケーションが使用するS3バケットでの暗号化されていない操作を拒否するバケットポリシーを作成します, CloudFrontでHTTPリクエストからHTTPSリクエストへのリダイレクトを設定します, ウェブアプリケーションが使用するS3バケットのS3サーバー側暗号化をオンにします
67
Amazon SQSキューで注文を受け取り、Lambda関数を呼び出して処理します
68
EC2インスタンスをNetwork Load Balancer(NLB)の背後に配置します。サードパーティーのSSL証明書をプロビジョニングし、NLBと各EC2インスタンスにインストールします。ポート443をリッスンし、インスタンスのポート443にトラフィックを転送するようにNLBを構成します
69
組織の管理アカウントでAWS Budgetsを設定します。EC2稼働時間の利用タイプを指定します。1日の期間を指定します。AWS Cost Explorerからレポートされた過去30日間の平均使用量より10%多い予算額を設定します。使用量のしきい値に達した場合に、アーキテクチャチームに通知するアラートを設定します
70
DX-A接続からDirect ConnectゲートウェイにトランジットVIFを作成します。高可用性のために、DX-B接続から同じDirect ConnectゲートウェイにトランジットVIFを作成します。eu-west-1とus-east-1の両方のトランジットゲートウェイをこのDirect Connectゲートウェイに関連付けます。トランジットゲートウェイ同士をピアリングして、クロスリージョンルーティングをサポートします
71
VPAでS3ゲートウェイVPCエンドポイントを設定し、エンドポイントポリシーをエンドポイントにアタッチして、S3バケット上で必要なアクションを許可します
72
すべての開発チームを含むOUを作成します。米国外のリージョンでのリソースの作成を拒否するSCPを作成します。OUにSCPを適用します, 管理アカウントにIAMロールを作成します。Billing and Cost Managementコンソールを表示する権限を含むポリシーをアタッチします。財務チームのユーザーにロールを引き受けることを許可します。AWS Cost ExplorerとBilling and Cost Managementコンソールを使用して、コストを分析します, 管理アカウントとして使用する新しいアカウントを作成します。すべての機能を有効にして、AWS Organizationsに組織をデプロイします。既存のすべてのアカウントを組織に招待します。各アカウントが招待を受け入れることを確認します
73
暗号化タイプとして、Amazon S3マネージドキー(SSE-S3)を使用したサーバーサイド暗号化を持つ新しいS3バケットを作成します。S3 Batch Operationsを使用して、既存のオブジェクトを新しいS3バケットにコピーします。SSE-S3を指定します
74
選択した2つのリージョンでデータにアクセスできるように、Amazon DynamoDB内のグローバルテーブルを使用します, プライマリリージョンからディザスタリカバリリージョンへのフェールオーバーには、Amazon Route 53フェールオーバールーティングポリシーを使用します。Time to Live(TTL)を30秒に設定します, リージョン内の複数のアベイラビリティゾーンにまたがるWebレイヤーとアプリケーションレイヤーに、Auto Scalingグループを使用してホットスタンバイモデルを実装します。最小限のサーバー数にはゾーンのリザーブドインスタンスを使用し、追加のリソースにはオンデマンドインスタンスを使用します
75
アプリケーションアカウントで、DBA-Secretという名前のIAMロールを作成します。このロールに、シークレットにアクセスするために必要な権限を付与します。DBAアカウントで、DBA-Adminという名前のIAMロールを作成します。DBA-Adminロールに、アプリケーションアカウントのDBA-Secretロールを引き受けるために必要な権限を付与します。DBA-AdminロールをEC2インスタンスにアタッチして、クロスアカウントのシークレットにアクセスできるようになります
SOA-1
SOA-1
な · 50問 · 1年前SOA-1
SOA-1
50問 • 1年前SOA-Failed
SOA-Failed
な · 51問 · 1年前SOA-Failed
SOA-Failed
51問 • 1年前DEA-C01_1
DEA-C01_1
な · 65問 · 1年前DEA-C01_1
DEA-C01_1
65問 • 1年前DEA-C01_2
DEA-C01_2
な · 45問 · 1年前DEA-C01_2
DEA-C01_2
45問 • 1年前DVA-C02_1
DVA-C02_1
な · 11回閲覧 · 65問 · 1年前DVA-C02_1
DVA-C02_1
11回閲覧 • 65問 • 1年前DVA-C02_2
DVA-C02_2
な · 3回閲覧 · 65問 · 1年前DVA-C02_2
DVA-C02_2
3回閲覧 • 65問 • 1年前DVA-C02_3
DVA-C02_3
な · 65問 · 1年前DVA-C02_3
DVA-C02_3
65問 • 1年前DVA-C02_4
DVA-C02_4
な · 3回閲覧 · 19問 · 1年前DVA-C02_4
DVA-C02_4
3回閲覧 • 19問 • 1年前SAP-C02_1
SAP-C02_1
な · 75問 · 1年前SAP-C02_1
SAP-C02_1
75問 • 1年前SAP-C02_2
SAP-C02_2
な · 75問 · 1年前SAP-C02_2
SAP-C02_2
75問 • 1年前SAP-C02_4
SAP-C02_4
な · 75問 · 1年前SAP-C02_4
SAP-C02_4
75問 • 1年前SAP-C02_5
SAP-C02_5
な · 75問 · 1年前SAP-C02_5
SAP-C02_5
75問 • 1年前問題一覧
1
AWS Step FunctionsとAWS Lambdaを使用するアプリケーション層でシステムを拡張します。フォームがアップロードされたときに、フォーム上で光学式文字認識(OCR)を実行するために、Amazon TextractとAmazon Comprehendを使用するようにこのティアを構成します。Amazon S3に出力を保存します。アプリケーション層で必要なデータを抽出し、この出力を解析します。ターゲットシステムのAPIにデータを送信します
2
新しいAWS WAF Web ACLを作成します。SQLデータベースのルールグループにマッチするリクエストをブロックする新しいルールを追加します。これらのルールに一致しない他のすべてのトラフィックを許可するようにWeb ACLを設定します。ECSタスクの前にあるALBにWeb ACLをアタッチします
3
各オンプレミスサーバーにAWS Application Discovery Agentをデプロイします。AWS Migration HubでData Explorationを構成します。Amazon Athenaを使用して、Amazon S3のデータに対して定義済みのクエリを実行します
4
Amazon CloudFrontが提供するAmazon S3バケットにアプリケーションフロントエンドをデプロイします。AWS Lambdaプロキシを統合したAmazon API Gatewayを使用して、アプリケーションバックエンドをデプロイします, タイムシート提出データをAmazon S3に保存します。Amazon AthenaとAmazon QuickSightを使用して、Amazon S3をデータソースとしてレポートを生成します
5
各メンバーアカウントにOrganizationAccountAccessRole IAMロールを作成します。管理アカウントにIAMロールを引き受ける権限を付与します
6
AWS Migration Hubを使用し、サーバーにAWS Application Discovery Agentをインストールします。Migration Hub Strategy Recommendationsアプリケーションデータコレクターをデプロイします。Migration Hub Strategy Recommendationsを使用してレポートを作成します
7
Amazon S3 File Gatewayをセットアップし、ドキュメントストアにリンクされるファイル共有を構成します。NFSを使用して、ファイル共有をAmazon EC2インスタンスにマウントします。Amazon S3で変更が発生したら、RefreshCache APIコールを開始し、S3 File Gatewayを更新します
8
オンデマンドキャパシティでアプリケーション用に新しいAmazon DynamoDBテーブルを作成します。DynamoDB用のゲートウェイVPCエンドポイントを使用して、DynamoDBテーブルに接続します
9
組織の管理アカウントで新しいAWS CloudTrail証跡を作成します。ログを保存するために、バージョニングをオンにした新しいAmazon S3バケットを作成します。組織内の全アカウントに証跡をデプロイします。S3バケットでMFA削除と暗号化を有効にします
10
AWS DataSyncを使用して、オンプレミスのWindowsファイルサーバーとAmazon FSxの間でデータをレプリケートするタスクを毎日スケジュールします
11
Aurora DBクラスターでIAMデータベース認証を有効にします。Lambda関数のIAMロールを変更し、IAMデータベース認証を使用してファンクションがデータベースにアクセスできるようにします。Amazon S3用のゲートウェイVPCエンドポイントをVPCにデプロイします
12
EC2インスタンスからElastic IPアドレスの関連付けを解除します。SFTPファイルホスティングに使用するAmazon S3バケットを作成します。AWS Transfer Familyサーバーを作成します。Transfer FamilyサーバーをVPCホストでインターネットに面したエンドポイントに設定します。SFTP Elastic IPアドレスを新しいエンドポイントに関連付けます。新しいエンドポイントに顧客のIPアドレスを持つセキュリティグループをアタッチします。Transfer FamilyサーバーをS3バケットに指定します。SFTPサーバーからS3バケットにすべてのファイルを同期します
13
ストリームのシャード数を増やすためにストリームをリシャードします, コンシューマロジックにエラー再試行と指数バックオフメカニズムを使用します, ファンアウト機能が強化されたコンシューマーを使用します
14
AWS Backupを使用して、ファイルシステムのポイントインタイムバックアップを作成します。バックアップを新しいFSx for Windows File Serverファイルシステムにリストアします。ストレージタイプとしてSSDを選択します。スループット容量として32 MBpsを選択します。バックアップと復元プロセスが完了したら、DNSエイリアスを適宜調整します。元のファイルシステムを削除します
15
6つのパートナーが使用するIPアドレスへのアクセスを許可するルールで、AWS WAFのWeb ACLを作成します。Web ACLをAPIに関連付けます。リクエスト制限付きの使用プランを作成し、APIに関連付けます。APIキーを作成し、使用プランに追加します
16
Amazon Route 53リゾルバを使用してDNSエンドポイントを作成します。条件付き転送ルールを追加して、オンプレミスのデータセンターとVPC間のDNSネームスペースを解決します
17
Lambda関数の新しいデプロイバージョンごとにエイリアスを作成します。AWS CLIのupdate-aliasコマンドにrouting-configパラメータを指定して負荷を分散させます
18
Amazon RDS Proxyレイヤーをデプロイします。DBインスタンスの前に。接続認証情報をAWS Secrets Managerにシークレットとして保存します
19
AWS Identity and Access Management Access Analyzerでアナライザを作成します。イベントタイプ "Access Analyzer Finding"に対して、"isPublic: true"のフィルタを持つAmazon EventBridgeルールを作成します。EventBridgeルールのターゲットとしてSNSトピックを選択します
20
AWS Systems Managerを使用して、すべてのEC2インスタンスにAmazon CloudWatchエージェントをインストールします。組織の管理アカウントで、AWS Cost Explorerからリソースの最適化の推奨事項を取得します。推奨を使用して、組織のすべてのアカウントで使用率の低いインスタンスをダウンサイジングします
21
S3 Storage Lensのデフォルトダッシュボードを使用して、バケットと暗号化のメトリクスを追跡します。コンプライアンスチームにS3コンソールで直接ダッシュボードにアクセスできるようになります
22
アカウントAのプライベートホストゾーンとアカウントBの新しいVPCを関連付ける権限を作成します, アカウントBの新しいVPCをアカウントAのホストされたゾーンに関連付けます
23
テーブルのDynamo DBAuto Scalingを有効にします
24
AuroraレプリカのAurora Auto Scalingを有効にします。ラウンドロビンルーティングとスティッキーセッションを有効にしたApplication Load Balancerを使用します
25
AWS Lambda関数を呼び出すS3イベント通知を使用します
26
WebサーバーVMのAMIを作成します。AMIとApplication Load Balancerを使用するAmazon EC2 Auto Scalingグループを作成します。オンプレミスのメッセージングキューを置き換えるためにAmazon MQをセットアップします。注文処理のバックエンドをホストするためにAmazon Elastic Kubernetes Service(Amazon EKS)を設定します
27
AWS Organizationsが一括請求を使用するように設定します。部門を識別するタグ戦略を実装します。Tag Editorを使用して、適切なリソースにタグを適用します。Compute Savings Plansを購入します
28
API GatewayでAPIエンドポイントをRegionalからprivateに更新します。VPCにインターフェイスVPCエンドポイントを作成します。リソースポリシーを作成し、APIにアタッチします。VPCエンドポイントを使用して、VPCからAPIを呼び出します
29
各EC2インスタンスにAmazon CloudWatchエージェントをインストールします。AWS Compute Optimizerを有効にし、少なくとも12時間実行させます。Compute Optimizerからの推奨を確認し、指示に従ってEC2インスタンスのサイズを変更します
30
AWS Organizationsで組織を作成します。組織でAWSControl Towerを有効にします。SCPに含まれるコントロール(ガードレール)を確認します。AWS Configで追加が必要な領域を確認します。必要に応じてOUを追加します。AWS IAMアイデンティティセンター(Single Sign-On)をオンプレミスのAD FSサーバに接続します
31
クラスター内のデータノード数を2に減らし、UltraWarmノードを追加して予想される容量を処理します。OpenSearch Serviceがデータをインジェストする際に、インデックスがUltraWarmに移行するように設定します。S3ライフサイクルポリシーを使用して、入力データを1ヶ月後にS3 Glacier Deep Archiveに移行します
32
AWS Application Auto Scalingを使用してピーク時のキャパシティを増やします。平均負荷に合わせて予約済みのRCUとWCUを購入します
33
すべてのキーをAWS Secrets Managerに保存します。Secrets Managerのローテーションスケジュールを定義し、Lambda関数を呼び出して新しいキーペアを生成します。EC2インスタンスの公開鍵を置き換えます。Secrets Managerで秘密鍵を更新します
34
指定したS3バケットからすべてのファイルを削除するLambda関数を実装します。このLambda関数をカスタムリソースとしてCloudFormationスタックに統合します。カスタムリソースには、S3バケットのリソースを指すDependsOn属性があることを確認します
35
AWS IAMアイデンティティセンター(AWS Single Sign-On)権限セットを作成します。適切なIAMアイデンティティセンターグループとAWSアカウントに権限セットをアタッチします, 管理アカウントにAWS IAMアイデンティティセンター(AWS Single Sign-On)をデプロイします。IAMアイデンティティセンターをAzure Active Directoryに接続します。IAMアイデンティティセンターをユーザーとグループの自動同期用に設定します, 管理アカウントとして新しいAWSアカウントを作成します。AWS Organizationsで組織をデプロイします。既存の各AWSアカウントを組織に招待します。各アカウントが招待を受け入れることを確認します
36
統一されたCloudWatchエージェントを使用して、Amazon CloudWatch Logsにログを公開するようにEC2インスタンスを構成します
37
特定のメンバーアカウントを新しいOUに関連付けます。タグポリシーと条件を使用したSCPを適用して、リージョンを制限します
38
選択したAWSリージョン内の3つのアベイラビリティゾーンに12インスタンスを分割します。各アベイラビリティゾーンで3つのインスタンスを容量予約のオンデマンドインスタンスとして実行します。各アベイラビリティゾーンで1つのインスタンスをスポットインスタンスとして実行します
39
新しいSQS標準キューをデッドレターキューとして構成し、障害のあるメッセージを分離します
40
AUTHトークンを作成します。トークンをAWS Secrets Managerに保存します。AUTHトークンを使用するように既存のクラスターを設定し、転送時の暗号化を設定します。必要に応じてSecrets ManagerからAUTHトークンを取得し、認証にAUTHトークンを使用するようにアプリケーションを更新します
41
ALBによって参照される2つ目のターゲットグループを作成します。この新しいターゲットグループのEC2インスタンスに新しいロジックをデプロイします。重み付けされたターゲットグループを使用するように、ALBリスナールールを更新します。ALBターゲットグループのスティッキネスを設定します
42
EC2インスタンスで実行されているロギングサービスのセキュリティグループを確認し、クライアントのIPアドレスからの受信を許可していることを確認します, NLBのセキュリティグループを確認し、インターフェイスのエンドポイントサブネットからの受信を許可していることを確認します
43
ENIのプールを作成します。プールのライセンスファイルをベンダーに要求し、ライセンスファイルをAmazon S3に格納します。ライセンスファイルをダウンロードし、対応するENIをAmazon EC2インスタンスにアタッチするブートストラップ自動化スクリプトを作成します, ブートストラップ自動化スクリプトを編集して、AWS Systems Manager Parameter StoreからデータベースサーバーのIPアドレスを読み取り、ローカル構成ファイルに値を注入します
44
DBインスタンスを変更して、2つのアベイラビリティゾーンにまたがるMulti-AZ配置を作成します, Elastic Load Balancerを使用して、複数のEC2インスタンスにトラフィックを分散させます。EC2インスタンスが、最低2つのインスタンス容量を持つAuto Scalingグループの一部であることを確認します, ElastiCache for Redisクラスター用のレプリケーショングループを作成します。クラスターでMulti-AZを有効にします
45
Auto ScalingグループのTerminateプロセスを一時停止します。Session Managerを使用して、unhealthyとマークされたインスタンスにログインします
46
Amazon S3でウェブアプリケーションをホストします。アップロードされた動画をAmazon S3に保存します。S3のイベント通知を使用して、SQSキューにイベントをパブリッシュします。動画を分類するためにAmazon Rekognition APIを呼び出すAWS Lambda関数でSQSキューを処理します
47
APIを複数のリージョンにデプロイします。各リージョンのAPIエンドポイントにトラフィックをルーティングするカスタムドメイン名でAmazon Route 53を設定します。Route 53の複数値回答ルーティングポリシーを実装します, 既存のシークレットマネージャーのシークレットを他のリージョンに複製します。複製された各リージョンのシークレットについて、適切なKMSキーを選択します, 新しいKMSマルチリージョンカスタマーマネージドキーを作成します。対象となる各リージョンに、新しいKMSカスタマーマネージドレプリカキーを作成します
48
Aurora Serverless v1データベースを、ソースリージョンとターゲットリージョンにまたがる標準のAurora MySQLグローバルデータベースに変更します。ターゲットリージョンでソリューションを起動します。2つのリージョンのソリューションがアクティブパッシブ構成で動作するように設定します
49
データフィードのフォーマットに基づいてAWS Glueクローラーとカスタム分類器を作成し、一致するテーブル定義を構築します。ファイル配信時にLambda関数を呼び出してAWS Glue ETLジョブを開始し、処理要件と変換要件に従ってレコード全体を変換します。出力フォーマットをJSONとして定義します。完了したら、ETLジョブは内部処理のために別のS3バケットに結果を送信します
50
Migration EvaluatorエージェントレスコレクタをESXiハイパーバイザーにデプロイします。Migration Evaluatorで収集したデータを確認します。非アクティブなサーバを特定します。非アクティブなサーバーを移行リストから削除します。AWS Migration Hubにデータをインポートします
51
AWS IoT Coreに公開するIoTデバイスの設定をします, レポートを準備し、Amazon S3にレポートを書き込むために、AWS LambdaタスクでAWS Step Functionsステートマシンを使用します。Amazon CloudFrontとS3オリジンを使ってレポートを提供します, メタデータをAmazon DocumentDBに書き込む(MongoDB互換性あり)
52
us-east-1にVPCを作成し、us-west-1にVPCを作成します。us-east-1のVPCに、複数のアベイラビリティゾーンにまたがるApplication Load Balancer(ALB)を作成します。us-east-1のVPCに、複数のアベイラビリティゾーンにまたがるEC2インスタンスをデプロイするAuto Scalingグループを作成し、Auto ScalingグループをALBの背後に配置します。us-west-1 VPCに同じ構成を設定し、Amazon Route 53ホストゾーンを作成します。ALBごとに個別のレコードを作成します。ヘルスチェックを有効にし、各レコードにフェールオーバールーティングポリシーを設定します
53
物理的なクロスリージョンレプリケーションにAuroraグローバルデータベースを使用します。静的コンテンツとリソースには、Amazon S3とリージョン間レプリケーションを使用します。ウェブ層とアプリケーション層を世界中のリージョンに展開します, レイテンシーベースのルーティングとAmazon CloudFrontディストリビューションを備えたAmazon Route 53を導入します。ウェブ層とアプリケーション層がそれぞれAuto Scalingグループにあることを確認します
54
オンプレミスのデータセンターとAWSの間にAWS Direct Connect接続を作成します。トランジットVIFをプロビジョニングし、Direct Connectゲートウェイに接続します。各リージョンのトランジットゲートウェイを使用して、Direct Connectゲートウェイを他のすべてのVPCに接続します
55
Migration Evaluatorを使用して分析を実行します。データインポートテンプレートを使用して、CMDBエクスポートからデータをアップロードします
56
指定された非本番アカウントのAWS Backup vaultを使用して、クロスアカウントバックアップを実装します, AWS Backup vaultの変更を制限するSCPを追加します, AWS Backup Vault Lockをコンプライアンスモードで実装します
57
Amazon Kinesis Data Firehoseを使用してAmazon S3にデータを保存するようにインジェストプロセスを更新します。AWS Batch withスポットインスタンスを使用して、On-Demand価格の50%を上限とするSpot価格で夜間処理を実行します
58
パブリックIPアドレスを持つインスタンスの起動を防止するSCPを作成します。さらに、既存のインスタンスにパブリックIPアドレスがアタッチされないようにSCPを構成します。SCPをOUにアタッチします
59
AWS Fargate上にAmazon Elastic Container Service(Amazon ECS)クラスターを作成します。AWS CLIのrun-taskコマンドを使用し、enableECSManagedTagsをtrueに設定して計画アプリケーションを起動します。tagsオプションを使用して、タスクにカスタムタグを割り当てます
60
Amazon SQSを使ってキューを作成します。新しいキューにパブリッシュするように、既存のWebサーバーを設定します。EC2 Auto ScalingグループのAmazon EC2インスタンスを使用して、キューからリクエストをプルし、ファイルを処理します。SQSキューの長さに基づいてEC2インスタンスをスケーリングします。処理したファイルをAmazon S3バケットに格納します
61
商品データをホストするAmazon RDS DBインスタンスを作成します。別のリージョンにDBインスタンスのリードレプリカを構成します。Amazon DynamoDBグローバルテーブルを作成し、ユーザーセッションデータをホストします
62
バックエンドサービスにAuto Scalingグループを使用します。DynamoDBのAuto Scalingを使用します
63
組織内のすべての共有サービスアカウントに、procurement-manager-roleという名前のIAMロールを作成します。AWSPrivateMarketplaceAdminFullAccess管理ポリシーをロールに追加します。procurement-manager-roleというロール以外のすべての人にPrivate Marketplaceを管理する権限を拒否するために、組織のルートレベルのSCPを作成します。別の組織ルートレベルのSCPを作成して、procurement-manager-roleという名前のIAMロールを作成する権限を組織内の全員に拒否します
64
RDS for MySQL DBインスタンスをAmazon Aurora MySQL DBクラスターに変換します。eu-west-1をセカンダリーリージョンとしてDBクラスターに追加します。DBクラスターでライトフォワーディングを有効にします。eu-west-1にアプリケーションをデプロイします。eu-west-1でAurora MySQLエンドポイントを使用するようにアプリケーションを設定します
65
Amazon EventBridgeを使用して、ユーザーが画像をアップロードしたときに発生するS3イベントを処理します。AWS Lambda関数を実行し、画像のサイズを変更し、S3バケット内の元のファイルを置き換えます。S3ライフサイクルの有効期限ポリシーを作成し、6ヶ月後に保存されているすべての画像を失効させます
66
Webアプリケーションが使用するS3バケットでの暗号化されていない操作を拒否するバケットポリシーを作成します, CloudFrontでHTTPリクエストからHTTPSリクエストへのリダイレクトを設定します, ウェブアプリケーションが使用するS3バケットのS3サーバー側暗号化をオンにします
67
Amazon SQSキューで注文を受け取り、Lambda関数を呼び出して処理します
68
EC2インスタンスをNetwork Load Balancer(NLB)の背後に配置します。サードパーティーのSSL証明書をプロビジョニングし、NLBと各EC2インスタンスにインストールします。ポート443をリッスンし、インスタンスのポート443にトラフィックを転送するようにNLBを構成します
69
組織の管理アカウントでAWS Budgetsを設定します。EC2稼働時間の利用タイプを指定します。1日の期間を指定します。AWS Cost Explorerからレポートされた過去30日間の平均使用量より10%多い予算額を設定します。使用量のしきい値に達した場合に、アーキテクチャチームに通知するアラートを設定します
70
DX-A接続からDirect ConnectゲートウェイにトランジットVIFを作成します。高可用性のために、DX-B接続から同じDirect ConnectゲートウェイにトランジットVIFを作成します。eu-west-1とus-east-1の両方のトランジットゲートウェイをこのDirect Connectゲートウェイに関連付けます。トランジットゲートウェイ同士をピアリングして、クロスリージョンルーティングをサポートします
71
VPAでS3ゲートウェイVPCエンドポイントを設定し、エンドポイントポリシーをエンドポイントにアタッチして、S3バケット上で必要なアクションを許可します
72
すべての開発チームを含むOUを作成します。米国外のリージョンでのリソースの作成を拒否するSCPを作成します。OUにSCPを適用します, 管理アカウントにIAMロールを作成します。Billing and Cost Managementコンソールを表示する権限を含むポリシーをアタッチします。財務チームのユーザーにロールを引き受けることを許可します。AWS Cost ExplorerとBilling and Cost Managementコンソールを使用して、コストを分析します, 管理アカウントとして使用する新しいアカウントを作成します。すべての機能を有効にして、AWS Organizationsに組織をデプロイします。既存のすべてのアカウントを組織に招待します。各アカウントが招待を受け入れることを確認します
73
暗号化タイプとして、Amazon S3マネージドキー(SSE-S3)を使用したサーバーサイド暗号化を持つ新しいS3バケットを作成します。S3 Batch Operationsを使用して、既存のオブジェクトを新しいS3バケットにコピーします。SSE-S3を指定します
74
選択した2つのリージョンでデータにアクセスできるように、Amazon DynamoDB内のグローバルテーブルを使用します, プライマリリージョンからディザスタリカバリリージョンへのフェールオーバーには、Amazon Route 53フェールオーバールーティングポリシーを使用します。Time to Live(TTL)を30秒に設定します, リージョン内の複数のアベイラビリティゾーンにまたがるWebレイヤーとアプリケーションレイヤーに、Auto Scalingグループを使用してホットスタンバイモデルを実装します。最小限のサーバー数にはゾーンのリザーブドインスタンスを使用し、追加のリソースにはオンデマンドインスタンスを使用します
75
アプリケーションアカウントで、DBA-Secretという名前のIAMロールを作成します。このロールに、シークレットにアクセスするために必要な権限を付与します。DBAアカウントで、DBA-Adminという名前のIAMロールを作成します。DBA-Adminロールに、アプリケーションアカウントのDBA-Secretロールを引き受けるために必要な権限を付与します。DBA-AdminロールをEC2インスタンスにアタッチして、クロスアカウントのシークレットにアクセスできるようになります