A
問題一覧
1
D. aws:SourceIp 条件キーの値が 0.0.0.0/0 の場合に、ec2:AuthorizeSecurityGroupIngress アクションを拒否するように SCP を設定します。 SCP を NonProd OU に適用します。
2
A. 物理マシンと VM に AWS Application Discovery Agent をインストールして、既存のアプリケーションを評価します。, D. AWS Migration Hub を使用して、サーバーを移行用のアプリケーションにグループ化します。, E. AWS Migration Hub を使用して、推奨されるインスタンス タイプと関連コストを生成します。
3
B. AWS Compute Optimizer にオプトインします。 ExportLambdaFunctionRecommendations オペレーションを呼び出す Lambda 関数を作成します。 .csv ファイルを S3 バケットにエクスポートします。 Amazon EventBridge ルールを作成して、Lambda 関数が 2 週間ごとに実行されるようにスケジュールします。
4
D. AWS Application Discovery Agent を各オンプレミスサーバーにデプロイします。 AWS Migration Hub でデータ探索を構成します。 Amazon Athena を使用して、Amazon S3 のデータに対して事前定義されたクエリを実行します。
5
B. Amazon API Gateway HTTP API を作成します。 各 Webhook ロジックを個別の AWS Lambda 関数に実装します。 API Gateway エンドポイントを呼び出すように Git サーバーを更新します。
6
B. AWS CloudFormationを使用して、3つのアベイラビリティゾーンにまたがるAmazon EC2 Auto Scalingグループの前に、アプリケーションロードバランサー(ALB)を含むスタックを起動する。スタックは、削除ポリシーを保持するAmazon Aurora MySQL DBクラスタのMulti-AZデプロイメントを起動する必要があります。Amazon Route 53エイリアスレコードを使用して、会社のドメインからALBにトラフィックをルーティングする。
7
A. NAT ゲートウェイを展開します。 Elastic IP アドレスを NAT ゲートウェイに関連付けます。 NAT ゲートウェイを使用するように VPC を設定します。
8
B. 顧客所有のパブリック IP アドレスのブロックを AWS アカウントに登録します。 アドレス ブロックから Elastic IP アドレスを作成し、VPC 内の NAT ゲートウェイに割り当てます。
9
A. AWS Application Auto Scaling を使用して、ピーク時の容量を増やします。 平均負荷に合わせて予約済みの RCU と WCU を購入します。
10
A. アプリケーションとチームを表すユーザー定義のコスト割り当てタグをアクティブにします。, C. Billing and Cost Management でアプリケーションごとにコスト カテゴリを作成します。, F. Cost Explorer を有効にします。
11
C. トランジット アカウントで、すべての内部 IP アドレス範囲を含む VPC プレフィックス リストを作成します。 AWS Resource Access Manager を使用して、他のすべてのアカウントとプレフィックス リストを共有します。 共有プレフィックス リストを使用して、他のアカウントのセキュリティ グループ ルールを構成します。
12
D. Amazon SQS を使用してキューを作成します。 新しいキューに公開するように既存の Web サーバーを構成します。 EC2 Auto Scaling グループの Amazon EC2 インスタンスを使用して、キューからリクエストをプルし、ファイルを処理します。 SQS キューの長さに基づいて EC2 インスタンスをスケーリングします。 処理されたファイルを Amazon S3 バケットに保存します。
13
B. クラスター内のデータ ノードの数を 2 に減らし、予想される容量を処理するために UltraWarm ノードを追加します。 OpenSearch Service がデータを取り込むときに UltraWarm に移行するようにインデックスを構成します。 S3 ライフサイクル ポリシーを使用して、1 か月後に入力データを S3 Glacier Deep Archive に移行します。
14
B. RDS プロキシを使用して、Aurora データベースのリーダーエンドポイントへの接続プールを設定します。, D. Lambda 関数でデータベース接続を開くためのコードをイベント ハンドラーの外に移動します。
15
B. ALB、Auto Scaling グループ、EC2 インスタンスを別の AWS リージョンにプロビジョニングします。 CloudFront ディストリビューションを更新し、新しい ALC の 2 番目のオリジンを作成します。2 つのオリジンのオリジン グループを作成します。 1 つのオリジンをプライマリとして設定し、もう 1 つのオリジンをセカンダリとして設定します。
16
C. 開発者に Amazon S3 アクセス許可を IAM エンティティに追加するように指示します。
17
C. VPA で S3 ゲートウェイ VPC エンドポイントを設定します。エンドポイント ポリシーをエンドポイントに接続して、S3 バケットで必要なアクションを許可します。
18
C. EC2 インスタンスを Application Load Balancer (ALB) の背後に配置します。AWS Certificate Manager (ACM) を使用して SSL 証明書をプロビジョニングし、SSL 証明書を ALB に関連付けます。 サードパーティの SSL 証明書をプロビジョニングし、各 EC2 インスタンスにインストールします。 ポート 443 でリッスンし、インスタンスのポート 443 にトラフィックを転送するように ALB を構成します。
19
C. Amazon Aurora MySQL データベースをセットアップします。 AWS Database Migration Service (AWS DMS) を使用して、オンプレミスのデータベースから Aurora への継続的なデータレプリケーションを実行します。 Aurora MySQL データベースの Aurora レプリカを作成し、Aurora レプリカに対して実行するように集計ジョブを移動します。 Application Load Balancer (ALB) の背後で AWS Lambda 関数として収集エンドポイントを設定し、Amazon RDS プロキシを使用して Aurora MySQL データベースに書き込みます。 データベースが同期されたら、コレクター DNS レコードが ALB を指すようにします。 オンプレミスから AWS へのカットオーバー後、AWS DMS 同期タスクを無効にします。
20
A. Lambda 関数の新しくデプロイされたバージョンごとにエイリアスを作成します。 負荷を分散するには、AWS CLI の update-alias コマンドを routing-config パラメータとともに使用します。
21
B. SFTP サーバーを AWS Transfer for SFTP に移行します。 Route 53 の DNS レコード sftp.example.com を更新して、サーバー エンドポイントのホスト名を指すようにします。
22
B. バケット ポリシーを作成して、宛先アカウントのユーザーがソース バケットの内容を一覧表示し、ソース バケットのオブジェクトを読み取ることを許可します。 バケット ポリシーをソース バケットにアタッチします。, D. 宛先アカウントに IAM ポリシーを作成します。 宛先アカウントのユーザーがソース バケット内のコンテンツの一覧表示とオブジェクトの取得、および宛先バケット内のコンテンツの一覧表示、オブジェクトの配置、objectACL の設定を許可するようにポリシーを構成します。 ポリシーをユーザーにアタッチします。, F. 宛先アカウントのユーザーとして aws s3 sync コマンドを実行します。 データをコピーするソースバケットと宛先バケットを指定します。
23
C. Amazon Data Lifecycle Manager (Amazon DLM) を使用して、EBS ボリュームのスナップショットを作成します。 データを Amazon S3 にコピーします。
24
B. S3 バケットのプロパティで、デフォルトの暗号化を AWS KMS 管理の暗号化キー (SSE-KMS) を使用したサーバー側の暗号化に変更します。 暗号化されていない PutObject リクエストを拒否するように S3 バケット ポリシーを設定します。 AWS CLI を使用して、S3 バケット内のすべてのオブジェクトを再アップロードします。
AWS102
AWS102
a@rekisi.nu · 100問 · 2年前AWS102
AWS102
100問 • 2年前AWS200-
AWS200-
a@rekisi.nu · 94問 · 2年前AWS200-
AWS200-
94問 • 2年前AWS39-101-1-38
AWS39-101-1-38
a@rekisi.nu · 99問 · 2年前AWS39-101-1-38
AWS39-101-1-38
99問 • 2年前AWS102copy
AWS102copy
a@rekisi.nu · 100問 · 2年前AWS102copy
AWS102copy
100問 • 2年前AWS200-Copy
AWS200-Copy
a@rekisi.nu · 6回閲覧 · 94問 · 2年前AWS200-Copy
AWS200-Copy
6回閲覧 • 94問 • 2年前AWS39-101-1-38
AWS39-101-1-38
a@rekisi.nu · 3回閲覧 · 99問 · 2年前AWS39-101-1-38
AWS39-101-1-38
3回閲覧 • 99問 • 2年前AWS299-
AWS299-
a@rekisi.nu · 100問 · 2年前AWS299-
AWS299-
100問 • 2年前問題一覧
1
D. aws:SourceIp 条件キーの値が 0.0.0.0/0 の場合に、ec2:AuthorizeSecurityGroupIngress アクションを拒否するように SCP を設定します。 SCP を NonProd OU に適用します。
2
A. 物理マシンと VM に AWS Application Discovery Agent をインストールして、既存のアプリケーションを評価します。, D. AWS Migration Hub を使用して、サーバーを移行用のアプリケーションにグループ化します。, E. AWS Migration Hub を使用して、推奨されるインスタンス タイプと関連コストを生成します。
3
B. AWS Compute Optimizer にオプトインします。 ExportLambdaFunctionRecommendations オペレーションを呼び出す Lambda 関数を作成します。 .csv ファイルを S3 バケットにエクスポートします。 Amazon EventBridge ルールを作成して、Lambda 関数が 2 週間ごとに実行されるようにスケジュールします。
4
D. AWS Application Discovery Agent を各オンプレミスサーバーにデプロイします。 AWS Migration Hub でデータ探索を構成します。 Amazon Athena を使用して、Amazon S3 のデータに対して事前定義されたクエリを実行します。
5
B. Amazon API Gateway HTTP API を作成します。 各 Webhook ロジックを個別の AWS Lambda 関数に実装します。 API Gateway エンドポイントを呼び出すように Git サーバーを更新します。
6
B. AWS CloudFormationを使用して、3つのアベイラビリティゾーンにまたがるAmazon EC2 Auto Scalingグループの前に、アプリケーションロードバランサー(ALB)を含むスタックを起動する。スタックは、削除ポリシーを保持するAmazon Aurora MySQL DBクラスタのMulti-AZデプロイメントを起動する必要があります。Amazon Route 53エイリアスレコードを使用して、会社のドメインからALBにトラフィックをルーティングする。
7
A. NAT ゲートウェイを展開します。 Elastic IP アドレスを NAT ゲートウェイに関連付けます。 NAT ゲートウェイを使用するように VPC を設定します。
8
B. 顧客所有のパブリック IP アドレスのブロックを AWS アカウントに登録します。 アドレス ブロックから Elastic IP アドレスを作成し、VPC 内の NAT ゲートウェイに割り当てます。
9
A. AWS Application Auto Scaling を使用して、ピーク時の容量を増やします。 平均負荷に合わせて予約済みの RCU と WCU を購入します。
10
A. アプリケーションとチームを表すユーザー定義のコスト割り当てタグをアクティブにします。, C. Billing and Cost Management でアプリケーションごとにコスト カテゴリを作成します。, F. Cost Explorer を有効にします。
11
C. トランジット アカウントで、すべての内部 IP アドレス範囲を含む VPC プレフィックス リストを作成します。 AWS Resource Access Manager を使用して、他のすべてのアカウントとプレフィックス リストを共有します。 共有プレフィックス リストを使用して、他のアカウントのセキュリティ グループ ルールを構成します。
12
D. Amazon SQS を使用してキューを作成します。 新しいキューに公開するように既存の Web サーバーを構成します。 EC2 Auto Scaling グループの Amazon EC2 インスタンスを使用して、キューからリクエストをプルし、ファイルを処理します。 SQS キューの長さに基づいて EC2 インスタンスをスケーリングします。 処理されたファイルを Amazon S3 バケットに保存します。
13
B. クラスター内のデータ ノードの数を 2 に減らし、予想される容量を処理するために UltraWarm ノードを追加します。 OpenSearch Service がデータを取り込むときに UltraWarm に移行するようにインデックスを構成します。 S3 ライフサイクル ポリシーを使用して、1 か月後に入力データを S3 Glacier Deep Archive に移行します。
14
B. RDS プロキシを使用して、Aurora データベースのリーダーエンドポイントへの接続プールを設定します。, D. Lambda 関数でデータベース接続を開くためのコードをイベント ハンドラーの外に移動します。
15
B. ALB、Auto Scaling グループ、EC2 インスタンスを別の AWS リージョンにプロビジョニングします。 CloudFront ディストリビューションを更新し、新しい ALC の 2 番目のオリジンを作成します。2 つのオリジンのオリジン グループを作成します。 1 つのオリジンをプライマリとして設定し、もう 1 つのオリジンをセカンダリとして設定します。
16
C. 開発者に Amazon S3 アクセス許可を IAM エンティティに追加するように指示します。
17
C. VPA で S3 ゲートウェイ VPC エンドポイントを設定します。エンドポイント ポリシーをエンドポイントに接続して、S3 バケットで必要なアクションを許可します。
18
C. EC2 インスタンスを Application Load Balancer (ALB) の背後に配置します。AWS Certificate Manager (ACM) を使用して SSL 証明書をプロビジョニングし、SSL 証明書を ALB に関連付けます。 サードパーティの SSL 証明書をプロビジョニングし、各 EC2 インスタンスにインストールします。 ポート 443 でリッスンし、インスタンスのポート 443 にトラフィックを転送するように ALB を構成します。
19
C. Amazon Aurora MySQL データベースをセットアップします。 AWS Database Migration Service (AWS DMS) を使用して、オンプレミスのデータベースから Aurora への継続的なデータレプリケーションを実行します。 Aurora MySQL データベースの Aurora レプリカを作成し、Aurora レプリカに対して実行するように集計ジョブを移動します。 Application Load Balancer (ALB) の背後で AWS Lambda 関数として収集エンドポイントを設定し、Amazon RDS プロキシを使用して Aurora MySQL データベースに書き込みます。 データベースが同期されたら、コレクター DNS レコードが ALB を指すようにします。 オンプレミスから AWS へのカットオーバー後、AWS DMS 同期タスクを無効にします。
20
A. Lambda 関数の新しくデプロイされたバージョンごとにエイリアスを作成します。 負荷を分散するには、AWS CLI の update-alias コマンドを routing-config パラメータとともに使用します。
21
B. SFTP サーバーを AWS Transfer for SFTP に移行します。 Route 53 の DNS レコード sftp.example.com を更新して、サーバー エンドポイントのホスト名を指すようにします。
22
B. バケット ポリシーを作成して、宛先アカウントのユーザーがソース バケットの内容を一覧表示し、ソース バケットのオブジェクトを読み取ることを許可します。 バケット ポリシーをソース バケットにアタッチします。, D. 宛先アカウントに IAM ポリシーを作成します。 宛先アカウントのユーザーがソース バケット内のコンテンツの一覧表示とオブジェクトの取得、および宛先バケット内のコンテンツの一覧表示、オブジェクトの配置、objectACL の設定を許可するようにポリシーを構成します。 ポリシーをユーザーにアタッチします。, F. 宛先アカウントのユーザーとして aws s3 sync コマンドを実行します。 データをコピーするソースバケットと宛先バケットを指定します。
23
C. Amazon Data Lifecycle Manager (Amazon DLM) を使用して、EBS ボリュームのスナップショットを作成します。 データを Amazon S3 にコピーします。
24
B. S3 バケットのプロパティで、デフォルトの暗号化を AWS KMS 管理の暗号化キー (SSE-KMS) を使用したサーバー側の暗号化に変更します。 暗号化されていない PutObject リクエストを拒否するように S3 バケット ポリシーを設定します。 AWS CLI を使用して、S3 バケット内のすべてのオブジェクトを再アップロードします。