AWS200-
問題一覧
1
A. Web アプリケーションが使用する S3 バケットの S3 サーバー側暗号化をオンにします。, C. Web アプリケーションが使用する S3 バケットでの暗号化されていない操作を拒否するバケット ポリシーを作成します。, E. CloudFront で HTTP リクエストの HTTPS リクエストへのリダイレクトを設定します。
2
D. データベース認証情報を、AWS Key Management Service (AWS KMS) カスタマー管理キーに関連付けられたシークレットとして AWS Secrets Manager に保存します。 各 Lambda 関数にロールをアタッチして、シークレットへのアクセスを提供します。 IT セキュリティ チームのみがシークレットとキーにアクセスできるように、シークレットと顧客管理キーへのアクセスを制限します。
3
A. Web 層とアプリケーション層の Application Load Balancer の背後にある Auto Scaling グループに Amazon EC2 インスタンスをデプロイします。 Babelfish を有効にして Amazon Aurora PostgreSQL を使用して、SQL Server データベースを再プラットフォーム化します。
4
C. AWS Global Accelerator にアクセラレータを追加します。 ALB をオリジンとして構成します。
5
B. センサーデータを受信するように AWS IoT Core をセットアップします。 AWS IoT Core に接続するためのカスタム ドメインを作成して構成します。 Route 53 の DNS レコードを更新して、AWS IoT Core Data-ATS エンドポイントを指すようにします。 データを保存するための AWS IoT ルールを構成します。
6
A. すべてのキーを AWS Secrets Manager に保存します。 Secrets Manager のローテーション スケジュールを定義して、AWS Lambda 関数を呼び出して新しいキー ペアを生成します。 EC2 インスタンスの公開キーを置き換えます。 Secrets Manager で秘密キーを更新します。
7
C. Migration Evaluator エージェントレス コレクターを ESXi ハイパーバイザーに展開します。 Migration Evaluator で収集されたデータを確認します。 非アクティブなサーバーを特定します。 非アクティブなサーバーを移行リストから削除します。 データを AWS Migration Hub にインポートします。
8
A. データを Amazon Simple Queue Service (Amazon SQS) キューに書き込みます。 キューから読み取り、既存のデータベースに書き込むように Lambda 関数を設定します。 Lambda 関数の予約済み同時実行制限を、データベースがサポートする接続数よりも少ない値に設定します。
9
B. Amazon マネージド Grafana ワークスペースを作成します。 新しい Amazon CloudWatch データ ソースを構成します。 既存の Grafana インスタンスからダッシュボードをエクスポートします。 ダッシュボードを新しいワークスペースにインポートします。
10
B. データベースを Amazon RDS for Oracle に移行します。 パスワードを AWS Secrets Manager に保存します。 自動回転をオンにします。 年間ローテーション スケジュールを構成します。
11
B. VPC と必要なサブネットをプロビジョニングする AWS CloudFormation テンプレートを作成します。 テンプレートを共有サービス アカウントに展開します。 AWS Resource Access Manager を使用してサブネットを共有します。, D. オンプレミス ネットワークへの接続に AWS サイト間 VPN を使用します。
12
B. インターネットへの送信トラフィック用に新しい VPC を作成します。 既存のトランジットゲートウェイを新しい VPC に接続します。 新しい NAT ゲートウェイを構成します。 ルールベースのフィルタリングには、AWS Network Firewall ファイアウォールを使用します。 各アベイラビリティーゾーンにネットワークファイアウォールエンドポイントを作成します。 すべてのデフォルト ルートをネットワーク ファイアウォール エンドポイントを指すように変更します。
13
D. アプリケーションの AMI を使用して Multi-AZ Auto Scaling グループを構成します。 Application Load Balancer (ALB) を作成し、以前に作成した Auto Scaling グループをターゲットとして選択します。 サードパーティの監査アプリケーションの宛先を使用して Amazon Kinesis Data Firehose を作成します。 WAF で Web ACL を作成します。 WebACL と ALB を使用して AWS WAF を作成し、宛先として Kinesis Data Firehose を選択してロギングを有効にします。 AWS Marketplace で AWS マネージド ルールにサブスクライブし、サブスクライバーとして WAF を選択します。
14
B. API Gateway のインターフェイス VPC エンドポイントを作成し、特定の API へのアクセスのみを許可するエンドポイント ポリシーを設定します。 VPC エンドポイントからのアクセスのみを許可するリソース ポリシーを API Gateway に追加します。 API Gateway エンドポイント タイプをプライベートに変更します。
15
D. EC2 セキュリティ グループで AWS Config を有効にして、非準拠の変更を追跡します。 Amazon Simple Notice Service (Amazon SNS) トピックを通じて、変更をアラートとして送信します。
16
A. ストリームを再シャードして、ストリーム内のシャードの数を増やします。, C. 強化されたファンアウト機能を備えたコンシューマーを使用します。, E. コンシューマ ロジックでエラーの再試行と指数バックオフ メカニズムを使用します。
17
B. AWS Systems Manager を使用して、すべての EC2 インスタンスに Amazon CloudWatch エージェントをインストールします。 組織の管理アカウントの AWS Cost Explorer からリソース最適化の推奨事項を取得します。 推奨事項を使用して、組織のすべてのアカウントで十分に活用されていないインスタンスをダウンサイズします。
18
B. CloudFormation テンプレートを更新して、Amazon CloudWatch エージェントを EC2 インスタンスにインストールします。 アプリケーションのプロセスメトリクスを送信するように CloudWatch エージェントを構成します。, D. 障害シナリオ用に Amazon CloudWatch のカスタムメトリクスのアラームを作成します。 Amazon Simple Notice Service (Amazon SNS) トピックにメッセージを発行するようにアラームを設定します。, E. Amazon Simple Notice Service (Amazon SNS) メッセージに応答してインスタンスのサービスを停止する AWS Lambda 関数を作成します。 代替インスタンスを指すようにネットワーク ルートを更新します。
19
D. ブルー/グリーン デプロイメント タイプと Application Load Balancer を使用するように ECS サービスを構成します。 ECS サービスごとに Service Auto Scaling を実装します。
20
A. リポジトリでプッシュ時のスキャンを設定します。 クリティカルまたは高重大度の結果が見つかったイメージのスキャンが完了したときに、Amazon EventBridge を使用して AWS Step Functions ステートマシンを呼び出します。 Step Functions ステートマシンを使用して、これらのイメージのイメージタグを削除し、Amazon Simple Notice Service (Amazon SNS) を通じて開発チームに通知します。
21
B. 管理アカウント レベルの推奨事項を使用して、管理アカウントから組織の Compute Savings Plan を購入します。
22
A. 組織の管理アカウントで、AWS Budgets を使用して日次期間の予算を作成します。 アラートしきい値を追加し、値を 80% に設定します。 Amazon Simple Notice Service (Amazon SNS) を使用して財務チームに通知します。
23
C. S3 Transfer Acceleration を使用するようにバケットを構成します。
24
D. アプリケーションを Amazon Elastic Kubernetes Service (Amazon EKS) にデプロイします。 管理対象ノードグループを使用するように Amazon EKS を設定します。 Web サーバーとアプリケーションを EKS クラスター内の Kubernetes デプロイメントとして実行します。 フロントエンド Web サーバーのセッション データを Amazon DynamoDB テーブルに保存します。 デプロイ時にすべてのアプリケーションがマウントする Amazon Elastic File System (Amazon EFS) ボリュームを作成します。
25
C. ネイティブのデータベース高可用性ツールを使用する。 ソースシステムを Amazon RDS for Microsoft SQL Server DB インスタンスに接続します。 それに応じてレプリケーションを構成します。 データのレプリケーションが完了したら、ワークロードを Amazon RDS for Microsoft SQL Server DB インスタンスに移行します。
26
B. サービスプロバイダーアプリケーションとサービスコンシューマーアプリケーションを同じ組織内の AWS アカウントに配置します。, D. エンドポイントのローカル DNS 名を使用して、サービス コンシューマのコンピューティング リソースがアベイラビリティ ゾーン固有のエンドポイント サービスを使用していることを確認します。
27
A. 新しい S3 バケットを作成します。 Direct Connect 接続に接続されている VPC 内に AWS Storage Gateway ファイル ゲートウェイをデプロイします。 新しい SMB ファイル共有を作成します。 夜間のデータベース エクスポートを新しい SMB ファイル共有に書き込みます。
28
B. オンプレミスのデータセンターと AWS の間に AWS Direct Connect 接続を作成します。 トランジット VIF をプロビジョニングし、Direct Connect ゲートウェイに接続します。 各リージョンのトランジット ゲートウェイを使用して、Direct Connect ゲートウェイを他のすべての VPC に接続します。
29
D. 管理アカウントで IAM ユーザーを作成します。 メンバー アカウントで、最小限の特権アクセスを持つクロスアカウント ロールを作成します。 信頼ポリシーを使用して、IAM ユーザーにロールへのアクセスを許可します。
30
D. AWS Elastic Disaster Recovery を使用してオンプレミスサーバーを複製します。 AWS DataSync を使用して、Amazon FSx for Windows File Server ファイル システムにデータをレプリケートします。 ファイル システムを AWS サーバーにマウントします。 災害時には、オンプレミスサーバーを AWS にフェイルオーバーします。 Elastic Disaster Recovery を使用して、新規または既存のサーバーにフェールバックします。
31
A. HPC クラスターが単一のアベイラビリティーゾーン内で起動されていることを確認します。, C. Elastic Fabric Adaptor (EFA) が有効になっている EC2 インスタンス タイプを選択します。, F. Amazon EFS を Amazon FSx for Lustre に置き換えます。
32
A. SCP を使用して、必要なタグを持たないリソースの作成を拒否します。 会社が各 OU に割り当てたタグ値を含むタグ ポリシーを作成します。 タグポリシーを OU にアタッチします。
33
C. AWS IoT Core をデプロイし、Amazon Kinesis Data Firehose 配信ストリームに接続します。 AWS Lambda 関数を使用してデータ変換を処理します。 センサーをルーティングしてデータを AWS IoT Core に送信します。
34
A. 保持要件ごとにバックアップ ルールを含む AWS バックアップ プランを作成します。, B. バックアップを別のリージョンにコピーするように AWS バックアップ プランを構成します。, D. Amazon Simple Notice Service (Amazon SNS) トピックをバックアップ プランに追加して、BACKUP_JOB_COMPLETED 以外のステータスを持つ完了したジョブの通知を送信します。
35
B. Amazon Kinesis Data Streams を使用して受信センサーデータを収集し、Kinesis クライアントでデータを分析し、Amazon EMR を使用して結果を Amazon Redshift クラスターに保存します。
36
B. プライマリ リージョンからディザスター リカバリー リージョンへのフェイルオーバーには、Amazon Route 53 フェイルオーバー ルーティング ポリシーを使用します。 生存時間 (TTL) を 30 秒に設定します。, C. Amazon DynamoDB 内でグローバル テーブルを使用して、選択した 2 つのリージョンでデータにアクセスできるようにします。, E. リージョン内の複数のアベイラビリティーゾーンにわたる Web 層とアプリケーション層の Auto Scaling グループを使用してホット スタンバイ モデルを実装します。 最小限のサーバー数にはゾーン リザーブド インスタンスを使用し、追加のリソースにはオンデマンド インスタンスを使用します。
37
B. AWS IoT Core を使用して車両データを受信します。 データを Amazon S3 に保存する Amazon Kinesis Data Firehose 配信ストリームにデータをルーティングするルールを設定します。 配信ストリームから読み取り、異常を検出する Amazon Kinesis Data Analytics アプリケーションを作成します。
38
D. CodeCommit トリガーを設定して、AWS Lambda 関数を呼び出し、新しいコードの送信をスキャンして認証情報を取得します。 認証情報が見つかった場合は、AWS IAM で認証情報を無効にし、ユーザーに通知します。
39
A. S3 バケットを所有する AWS アカウント内のアプリケーションごとに S3 アクセス ポイントを作成します。 アプリケーションの VPC からのみアクセスできるように各アクセス ポイントを構成します。 アクセス ポイントからのアクセスを要求するようにバケット ポリシーを更新します。, C. 各アプリケーションの VP で Amazon S3 のゲートウェイ エンドポイントを作成します。S3 アクセス ポイントへのアクセスを許可するようにエンドポイント ポリシーを構成します。 アクセスポイントへのアクセスに使用するルートテーブルを指定します。
40
B. Splunk を宛先として Amazon Kinesis Data Firehose 配信ストリームを作成します。 CloudWatch Logs サブスクリプションフィルターによって送信されたレコードから個々のログイベントを抽出する Kinesis Data Firehose ストリームプロセッサを使用して、前処理 AWS Lambda 関数を構成します。 VPC フロー ログを有効にし、CloudWatch に送信します。 ログイベントを Kinesis Data Firehose 配信ストリームに送信する CloudWatch Logs サブスクリプションを作成します。
41
B. 管理アカウントとして機能する新しいアカウントを作成します。 すべての機能を有効にして AWS Organizations に組織をデプロイします。 既存のすべてのアカウントを組織に招待します。 各アカウントが招待を受け入れていることを確認してください。, D. すべての開発チームを含む OU を作成します。 米国外の地域でのリソースの作成を拒否する SCP を作成します。 SCP を OU に適用します。, E. 管理アカウントで IAM ロールを作成します。 Billing and Cost Management コンソールを表示する権限を含むポリシーをアタッチします。 財務チームのユーザーがその役割を引き受けることを許可します。 AWS Cost Explorer と Billing and Cost Management コンソールを使用してコストを分析します。
42
B. OrganizationAccountAccessRole IAM ロールを使用して、各メンバー アカウントに読み取り専用アクセスを持つ新しい IAM ロールを作成します。 各メンバー アカウントの IAM ロールとセキュリティ アカウントの間に信頼関係を確立します。 IAM ロールを使用してアクセス権を取得するようにセキュリティ チームに依頼します。
43
B. トランジットゲートウェイを作成し、既存の AWS アカウントと共有します。 既存の VPC をトランジット ゲートウェイに接続します。 インターネットへのアクセスを許可するために必要なルーティングを構成します。
44
B. レートベースのルールを使用して AWS WAF ウェブ ACL を作成し、ルールアクションをブロックに設定します。 Web ACL を ALB に接続します。
45
A. 顧客が所有する IP アドレスのブロックを会社の AWS アカウントに登録します。 アドレスプールから Elastic IP アドレスを作成し、AWS Transfer for SFTP エンドポイントに割り当てます。 AWS Transfer を使用してファイルを Amazon S3 に保存します。
46
A. 5 つの新しい EC2 インスタンスをクラスター配置グループに起動します。 EC2 インスタンス タイプが拡張ネットワークをサポートしていることを確認してください。
47
D. 6 つのパートナーが使用する IP アドレスへのアクセスを許可するルールを含む AWS WAF ウェブ ACL を作成します。 Web ACL を API に関連付けます。 リクエスト制限を含む使用量プランを作成し、それを API に関連付けます。 API キーを作成し、使用プランに追加します。
48
C. Aurora DB クラスターでデータベースアクティビティストリームを開始し、アクティビティストリームを Amazon Kinesis データストリームにプッシュします。 Kinesis データストリームを消費し、さらなる分析のためにデータを Amazon S3 に配信するように Amazon Kinesis Data Firehose を設定します。
49
C. r6g.4xlarge (メモリ最適化) インスタンスをデプロイするように Auto Scaling グループを構成します。 最小容量を 3、希望する容量を 3、最大容量を 12 に設定します。
50
D. DynamoDB アクセラレータ (DAX) をデプロイします。 プロビジョニングされた容量モードを使用します。 DynamoDB の自動スケーリングを設定します。
51
A. NLB サブネットとの間の通信を許可するために、NACL がログ サービス サブネットに接続されていることを確認します。 NACL が NLB サブネットに接続されて、EC2 インスタンスで実行されているログ サービス サブネットとの間の通信が可能になっていることを確認します。, C. EC2 インスタンスで実行されているログ サービスのセキュリティ グループを調べて、NLB サブネットからの受信が許可されていることを確認します。
52
B. 暗号化タイプとして Amazon S3 管理キー (SSE-S3) を使用したサーバー側暗号化を備えた新しい S3 バケットを作成します。 S3 バッチ操作を使用して、既存のオブジェクトを新しい S3 バケットにコピーします。 SSE-S3を指定します。
53
B. DynamoDB テーブルの WCU を評価して調整します。, D. Amazon Simple Queue Service (Amazon SQS) キューと、Amazon S3 と Lambda 関数の間の再処理ロジックを追加します。
54
D. AWS Amplify を使用して、メディア ファイルをアップロードするための静的ウェブサイトを作成します。 Amplify Hosting を使用して、Amazon CloudFront 経由でウェブサイトを提供します。 Amazon S3 を使用して、アップロードされたメディア ファイルを保存します。 Amazon Cognito を使用してユーザーを認証します。
55
B. 統合された CloudWatch エージェントを使用して Amazon CloudWatch Logs にログを公開するように EC2 インスタンスを設定します。
56
C. API Gateway API エンドポイントで CORS 設定を有効にします。 Access-Control-Allow-Origin ヘッダーが www.example.com に設定されているすべての応答を返すように API エンドポイントが構成されていることを確認します。
57
A. 管理アカウントとして機能する新しい AWS アカウントを作成します。 AWS Organizations に組織をデプロイします。 既存の各 AWS アカウントを組織に参加するように招待します。 各アカウントが招待を受け入れていることを確認してください。, C. 管理アカウントに AWS IAM Identity Center (AWS Single Sign-On) をデプロイします。 IAM Identity Center を Azure Active Directory に接続します。 ユーザーとグループを自動同期するように IAM Identity Center を構成します。, E. AWS IAM Identity Center (AWS Single Sign-On) 権限セットを作成します。 権限セットを適切な IAM Identity Center グループと AWS アカウントにアタッチします。
58
B. Auto Scaling が 75% のメモリ使用率に設定されている Amazon ECS コンテナを Amazon EC2 にデプロイします。 ECS タスクのスケーリングを使用して、移行されるアプリケーションごとに ECS タスクをデプロイします。 Amazon CloudWatch を使用してサービスとホストを監視します。
59
B. オンデマンド インスタンスでプライマリ ノードとコア ノードを起動します。 インスタンス フリート内のスポット インスタンスでタスク ノードを起動します。 処理が完了したら、すべてのインスタンスを含むクラスターを終了します。 オンデマンド インスタンスの使用量をカバーするには、Compute Savings Plan を購入します。
60
C. パブリック サブネットに単一の NAT ゲートウェイを展開します。 Elastic IP アドレスを NAT ゲートウェイに割り当てます。 Amazon CloudWatch をカスタムメトリクスとともに使用して、NAT ゲートウェイを監視します。 NAT ゲートウェイが異常な場合は、AWS Lambda 関数を呼び出して、別のサブネットに新しい NAT ゲートウェイを作成します。 Elastic IP アドレスを新しい NAT ゲートウェイに割り当てます。
61
B. 管理アカウントから、Organizations API の RemoveAccountFromOrganization オペレーションを使用して、古い組織から各開発者アカウントを削除します。, E. 新しい開発者組織の管理アカウントから Organizations API の InviteAccountToOrganization オペレーションを呼び出して、開発者アカウントに招待状を送信します。, E. 新しい開発者組織の管理アカウントから Organizations API の InviteAccountToOrganization オペレーションを呼び出して、開発者アカウントに招待状を送信します。
62
C. AWS Lambda 関数を呼び出す S3 イベント通知を使用します。
63
D. CodeDeploy エージェントがインストールされた新しい AMI を作成します。 新しい AMI を使用するように Auto Scaling グループの起動テンプレートを構成します。 CodeDeploy デプロイメント グループを EC2 インスタンスではなく Auto Scaling グループに関連付けます。
64
B. Web アプリケーションのトラフィックを処理するように構成された Auto Scaling グループを作成します。 新しい起動テンプレートを Auto Scaling グループにアタッチします。 Auto Scaling グループを既存の ALA にアタッチします。 既存の EC2 インスタンスを Auto Scaling グループにアタッチします。
65
C. ユーザーが S3 ゲートウェイ エンドポイントと承認された EC2 インスタンスを含む承認された VPC 構成を作成するために使用できる AWS Service Catalog ポートフォリオを作成します。 ポートフォリオを開発者アカウントと共有します。 承認された IAM ロールを使用するように AWS Service Catalog の起動制約を設定します。 開発者の IAM 権限の範囲を設定して、AWS Service Catalog へのアクセスのみを許可します。
66
C. AWS Control Tower ランディング ゾーンを起動します。 OU を作成し、承認されたリージョン外でサービスを実行するためのアクセスを拒否する SCP を接続します。
67
C. ウェブホスティングには Amazon S3 を使用し、データベース API サービスには AWS AppSync を使用します。 注文のキューイングには Amazon Simple Queue Service (Amazon SQS) を使用します。 ビジネスロジックには AWS Lambda を使用し、失敗した注文を保持する Amazon SQS 配信不能キューを使用します。
68
B. プライマリを us-east-1 に、セカンダリを us-west-2 に持つ Amazon Aurora グローバル データベースにデータベースを移行します。
69
D. 特定のメンバー アカウントを新しい OU に関連付けます。 条件を使用してタグ ポリシーと SCP を適用し、リージョンを制限します。
70
D. Amazon S3 のパブリック アクセスのブロック機能を使用して、バケットの IgnorePublicAcIs オプションを TRUE に設定します。
71
A. ターゲット アカウントに新しい RDS for PostgreSQL DB インスタンスを作成します。 AWS Schema Conversion Tool (AWS SCT) を使用して、データベース スキーマをソース データベースからターゲット データベースに移行します。, C. 2 つの AWS アカウントの VPC 間に VPC ピアリングを設定し、ターゲット アカウントから両方の DB インスタンスへの接続を提供します。 ターゲット アカウントの VPC からデータベース ポートでのトラフィックを許可するように、各 DB インスタンスにアタッチされているセキュリティ グループを構成します。, E. ターゲット アカウントで AWS Database Migration Service (AWS DMS) を使用して、ソース データベースからターゲット データベースへの全ロードと変更データ キャプチャ (CDC) 移行を実行します。 移行が完了したら、ターゲット DB インスタンスのエンドポイントを指すように CNAME レコードを変更します。
72
D. 新しい SQS 標準キューを配信不能キューとして構成し、障害のあるメッセージを隔離します。
73
A. チームのメーリングリストを対象とするタイプ「Email」のサブスクリプションを使用して、Amazon Simple Notice Service (Amazon SNS) トピックを作成します。, B. 入力引数を SNS トピックに転送する「電子メール」という名前のタスクを作成します。, C. "ErrorEquals": [ "States.ALL" ] および "Next": "Email" のステートメントを持つすべての Task、Map、および Parallel 状態に Catch フィールドを追加します。
74
B. VPC の DNS ホスト名をオンにします。 Amazon Route 53 リゾルバーを使用して新しいアウトバウンドエンドポイントを設定します。 company.example に対するリクエストをオンプレミスのネーム サーバーに転送するリゾルバー ルールを作成します。
75
C. VPC アタッチメントごとに専用のトランジット ゲートウェイ ルート テーブルを作成します。 許可された VPC にのみトラフィックをルーティングします。
76
C. Amazon AppStream 2.0 イメージ ビルダーを使用して、アプリケーションと必要な設定を含むイメージを作成します。 イメージを実行するための動的なフリート Auto Scaling ポリシーを使用して AppStream 2.0 オンデマンド フリートをプロビジョニングします。 AppStream 2.0 ユーザー プールを使用して認証を実装します。 ブラウザベースの AppStream 2.0 ストリーミング セッションを開始してアプリケーションにアクセスするように従業員に指示します。
77
B. データを Amazon S3 に保存します。 AWS Glue データカタログと Amazon Athena を使用してデータをクエリします。
78
C. タグ エディターを使用して、既存のリソースにタグを付けます。 コスト配分タグを作成して、コスト センターとプロジェクト ID を定義します。 SCP を使用して、リソースにコスト センターとプロジェクト ID を持たないリソースの作成を制限します。
79
A. AWS クラウドでネットワーク アカウントを確立します。 ネットワークアカウントにプライベート VPC を作成します。 オンプレミス環境とプライベート VPC の間にプライベート VIF を使用して AWS Direct Connect 接続をセットアップします。, C. ネットワークアカウントに Amazon S3 インターフェイスエンドポイントを作成します。
80
C. テーブルの Dynamo DB 自動スケーリングを有効にします。
81
C. AWS AppSync を使用し、WebSocket を利用してコメントを配信します。
82
B. 組織のルート レベルで SCP を作成し、s3:AccessPointNetworkOrigin 条件キーが VPC と評価されない限り、s3:CreateAccessPoint アクションを拒否します。
83
B. [環境 URL の交換] オプションを選択します。
84
C. アップロードされた画像を Amazon S3 バケットに保存し、Amazon Simple Queue Service (Amazon SQS) キューにメッセージを送信するように S3 バケット イベント通知を設定します。 Amazon EC2 インスタンスのフリートを作成して、SQS キューからメッセージを取得してイメージを処理し、別の S3 バケットに配置します。 EC2 インスタンスをスケールアウトするには、キューの深さの Amazon CloudWatch メトリクスを使用します。 Amazon CloudFront を有効にし、処理された画像を含む S3 バケットになるようにオリジンを設定します。
85
D. RDS for MySQL DB インスタンスを Amazon Aurora MySQL DB クラスターに変換します。 eu-west-1 をセカンダリ リージョンとして DB クラスターに追加します。 DB クラスターで書き込み転送を有効にします。 アプリケーションを eu-west-1 にデプロイします。 eu-west-1 の Aurora MySQL エンドポイントを使用するようにアプリケーションを設定します。
86
B. EC2 インスタンスから Elastic IP アドレスの関連付けを解除します。 SFTP ファイルのホスティングに使用する Amazon S3 バケットを作成します。 AWS Transfer Family サーバーを作成します。 VPC でホストされ、インターネットに接続されたエンドポイントを使用して Transfer Family サーバーを構成します。 SFTP Elastic IP アドレスを新しいエンドポイントに関連付けます。 顧客の IP アドレスを持つセキュリティ グループを新しいエンドポイントに接続します。 Transfer Family サーバーが S3 バケットを指すようにします。 すべてのファイルを SFTP サーバーから S3 バケットに同期します。
87
B. Amazon Kinesis Data Firehose を使用してデータを Amazon S3 に保存するように取り込みプロセスを更新します。 AWS Batch とスポット インスタンスを使用して、オンデマンド価格の 50% である最大スポット価格で夜間処理を実行します。
88
A. AWS Transfer Family サーバーを作成します。 Transfer Family サーバー用にインターネットに接続された VPC エンドポイントを構成します。 各サブネットの Elastic IP アドレスを指定します。 複数のアベイラビリティーゾーンにデプロイされる Amazon Elastic File System (Amazon EFS) ファイル システムにファイルを配置するように Transfer Family サーバーを構成します。 代わりに EFS エンドポイントをマウントするように、既存の NFS 共有にアクセスするダウンストリーム アプリケーションの構成を変更します。
89
A. AZ2 サブネットのみを使用するように Auto Scaling グループを更新します。 AZ1 サブネットを削除し、以前のアドレス空間の半分を使用して再作成します。 新しい AZ1 サブネットも使用するように Auto Scaling グループを調整します。 インスタンスが正常な場合は、AZ1 サブネットのみを使用するように Auto Scaling グループを調整します。 現在の AZ2 サブネットを削除します。 元の AZ1 サブネットのアドレス空間の後半を使用して、新しい AZ2 サブネットを作成します。 元の AZ2 サブネット アドレス空間の半分を使用して新しい AZ3 サブネットを作成し、3 つの新しいサブネットすべてをターゲットにするように Auto Scaling グループを更新します。
90
A. 組織の管理アカウントで許可されているプロジェクト タグ値を含むタグ ポリシーを作成します。 プロジェクト タグが追加されない限り、cloudformation:CreateStack API 操作を拒否する SCP を作成します。 SCP を各 OU に接続します。
91
C. アプリケーションの CPU とメモリの使用率に関する情報を使用して、Auto Scaling グループの起動テンプレートの新しいリビジョンで CPU とメモリの要件を指定します。 現在のインスタンス タイプを構成から削除します。
92
C. AWS Backup を使用して、セカンダリ AWS リージョンに Aurora データベースと DynamoDB データベースのバックアップを作成します。 プライマリ リージョンとセカンダリ リージョンで、リージョン エンドポイントを使用して API ゲートウェイ API を構成します。 Amazon Route 53 フェイルオーバー ルーティングを実装して、トラフィックをプライマリ リージョンからセカンダリ リージョンに切り替えます。
93
A. Lambda@Edge 関数をデプロイして、パラメータを名前で並べ替え、強制的に小文字にします。 CloudFront ビューアリクエストトリガーを選択して関数を呼び出します。
94
C. AWS Database Migration Service (AWS DMS) を使用する。 進行中の変更を Aurora データベースから別のリージョンの Amazon S3 バケットにレプリケートする DMS 変更データ キャプチャ (CDC) タスクを作成します。
AWS102
AWS102
a@rekisi.nu · 100問 · 2年前AWS102
AWS102
100問 • 2年前AWS39-101-1-38
AWS39-101-1-38
a@rekisi.nu · 99問 · 2年前AWS39-101-1-38
AWS39-101-1-38
99問 • 2年前A
A
a@rekisi.nu · 24問 · 2年前A
A
24問 • 2年前AWS102copy
AWS102copy
a@rekisi.nu · 100問 · 2年前AWS102copy
AWS102copy
100問 • 2年前AWS200-Copy
AWS200-Copy
a@rekisi.nu · 6回閲覧 · 94問 · 2年前AWS200-Copy
AWS200-Copy
6回閲覧 • 94問 • 2年前AWS39-101-1-38
AWS39-101-1-38
a@rekisi.nu · 3回閲覧 · 99問 · 2年前AWS39-101-1-38
AWS39-101-1-38
3回閲覧 • 99問 • 2年前AWS299-
AWS299-
a@rekisi.nu · 100問 · 2年前AWS299-
AWS299-
100問 • 2年前問題一覧
1
A. Web アプリケーションが使用する S3 バケットの S3 サーバー側暗号化をオンにします。, C. Web アプリケーションが使用する S3 バケットでの暗号化されていない操作を拒否するバケット ポリシーを作成します。, E. CloudFront で HTTP リクエストの HTTPS リクエストへのリダイレクトを設定します。
2
D. データベース認証情報を、AWS Key Management Service (AWS KMS) カスタマー管理キーに関連付けられたシークレットとして AWS Secrets Manager に保存します。 各 Lambda 関数にロールをアタッチして、シークレットへのアクセスを提供します。 IT セキュリティ チームのみがシークレットとキーにアクセスできるように、シークレットと顧客管理キーへのアクセスを制限します。
3
A. Web 層とアプリケーション層の Application Load Balancer の背後にある Auto Scaling グループに Amazon EC2 インスタンスをデプロイします。 Babelfish を有効にして Amazon Aurora PostgreSQL を使用して、SQL Server データベースを再プラットフォーム化します。
4
C. AWS Global Accelerator にアクセラレータを追加します。 ALB をオリジンとして構成します。
5
B. センサーデータを受信するように AWS IoT Core をセットアップします。 AWS IoT Core に接続するためのカスタム ドメインを作成して構成します。 Route 53 の DNS レコードを更新して、AWS IoT Core Data-ATS エンドポイントを指すようにします。 データを保存するための AWS IoT ルールを構成します。
6
A. すべてのキーを AWS Secrets Manager に保存します。 Secrets Manager のローテーション スケジュールを定義して、AWS Lambda 関数を呼び出して新しいキー ペアを生成します。 EC2 インスタンスの公開キーを置き換えます。 Secrets Manager で秘密キーを更新します。
7
C. Migration Evaluator エージェントレス コレクターを ESXi ハイパーバイザーに展開します。 Migration Evaluator で収集されたデータを確認します。 非アクティブなサーバーを特定します。 非アクティブなサーバーを移行リストから削除します。 データを AWS Migration Hub にインポートします。
8
A. データを Amazon Simple Queue Service (Amazon SQS) キューに書き込みます。 キューから読み取り、既存のデータベースに書き込むように Lambda 関数を設定します。 Lambda 関数の予約済み同時実行制限を、データベースがサポートする接続数よりも少ない値に設定します。
9
B. Amazon マネージド Grafana ワークスペースを作成します。 新しい Amazon CloudWatch データ ソースを構成します。 既存の Grafana インスタンスからダッシュボードをエクスポートします。 ダッシュボードを新しいワークスペースにインポートします。
10
B. データベースを Amazon RDS for Oracle に移行します。 パスワードを AWS Secrets Manager に保存します。 自動回転をオンにします。 年間ローテーション スケジュールを構成します。
11
B. VPC と必要なサブネットをプロビジョニングする AWS CloudFormation テンプレートを作成します。 テンプレートを共有サービス アカウントに展開します。 AWS Resource Access Manager を使用してサブネットを共有します。, D. オンプレミス ネットワークへの接続に AWS サイト間 VPN を使用します。
12
B. インターネットへの送信トラフィック用に新しい VPC を作成します。 既存のトランジットゲートウェイを新しい VPC に接続します。 新しい NAT ゲートウェイを構成します。 ルールベースのフィルタリングには、AWS Network Firewall ファイアウォールを使用します。 各アベイラビリティーゾーンにネットワークファイアウォールエンドポイントを作成します。 すべてのデフォルト ルートをネットワーク ファイアウォール エンドポイントを指すように変更します。
13
D. アプリケーションの AMI を使用して Multi-AZ Auto Scaling グループを構成します。 Application Load Balancer (ALB) を作成し、以前に作成した Auto Scaling グループをターゲットとして選択します。 サードパーティの監査アプリケーションの宛先を使用して Amazon Kinesis Data Firehose を作成します。 WAF で Web ACL を作成します。 WebACL と ALB を使用して AWS WAF を作成し、宛先として Kinesis Data Firehose を選択してロギングを有効にします。 AWS Marketplace で AWS マネージド ルールにサブスクライブし、サブスクライバーとして WAF を選択します。
14
B. API Gateway のインターフェイス VPC エンドポイントを作成し、特定の API へのアクセスのみを許可するエンドポイント ポリシーを設定します。 VPC エンドポイントからのアクセスのみを許可するリソース ポリシーを API Gateway に追加します。 API Gateway エンドポイント タイプをプライベートに変更します。
15
D. EC2 セキュリティ グループで AWS Config を有効にして、非準拠の変更を追跡します。 Amazon Simple Notice Service (Amazon SNS) トピックを通じて、変更をアラートとして送信します。
16
A. ストリームを再シャードして、ストリーム内のシャードの数を増やします。, C. 強化されたファンアウト機能を備えたコンシューマーを使用します。, E. コンシューマ ロジックでエラーの再試行と指数バックオフ メカニズムを使用します。
17
B. AWS Systems Manager を使用して、すべての EC2 インスタンスに Amazon CloudWatch エージェントをインストールします。 組織の管理アカウントの AWS Cost Explorer からリソース最適化の推奨事項を取得します。 推奨事項を使用して、組織のすべてのアカウントで十分に活用されていないインスタンスをダウンサイズします。
18
B. CloudFormation テンプレートを更新して、Amazon CloudWatch エージェントを EC2 インスタンスにインストールします。 アプリケーションのプロセスメトリクスを送信するように CloudWatch エージェントを構成します。, D. 障害シナリオ用に Amazon CloudWatch のカスタムメトリクスのアラームを作成します。 Amazon Simple Notice Service (Amazon SNS) トピックにメッセージを発行するようにアラームを設定します。, E. Amazon Simple Notice Service (Amazon SNS) メッセージに応答してインスタンスのサービスを停止する AWS Lambda 関数を作成します。 代替インスタンスを指すようにネットワーク ルートを更新します。
19
D. ブルー/グリーン デプロイメント タイプと Application Load Balancer を使用するように ECS サービスを構成します。 ECS サービスごとに Service Auto Scaling を実装します。
20
A. リポジトリでプッシュ時のスキャンを設定します。 クリティカルまたは高重大度の結果が見つかったイメージのスキャンが完了したときに、Amazon EventBridge を使用して AWS Step Functions ステートマシンを呼び出します。 Step Functions ステートマシンを使用して、これらのイメージのイメージタグを削除し、Amazon Simple Notice Service (Amazon SNS) を通じて開発チームに通知します。
21
B. 管理アカウント レベルの推奨事項を使用して、管理アカウントから組織の Compute Savings Plan を購入します。
22
A. 組織の管理アカウントで、AWS Budgets を使用して日次期間の予算を作成します。 アラートしきい値を追加し、値を 80% に設定します。 Amazon Simple Notice Service (Amazon SNS) を使用して財務チームに通知します。
23
C. S3 Transfer Acceleration を使用するようにバケットを構成します。
24
D. アプリケーションを Amazon Elastic Kubernetes Service (Amazon EKS) にデプロイします。 管理対象ノードグループを使用するように Amazon EKS を設定します。 Web サーバーとアプリケーションを EKS クラスター内の Kubernetes デプロイメントとして実行します。 フロントエンド Web サーバーのセッション データを Amazon DynamoDB テーブルに保存します。 デプロイ時にすべてのアプリケーションがマウントする Amazon Elastic File System (Amazon EFS) ボリュームを作成します。
25
C. ネイティブのデータベース高可用性ツールを使用する。 ソースシステムを Amazon RDS for Microsoft SQL Server DB インスタンスに接続します。 それに応じてレプリケーションを構成します。 データのレプリケーションが完了したら、ワークロードを Amazon RDS for Microsoft SQL Server DB インスタンスに移行します。
26
B. サービスプロバイダーアプリケーションとサービスコンシューマーアプリケーションを同じ組織内の AWS アカウントに配置します。, D. エンドポイントのローカル DNS 名を使用して、サービス コンシューマのコンピューティング リソースがアベイラビリティ ゾーン固有のエンドポイント サービスを使用していることを確認します。
27
A. 新しい S3 バケットを作成します。 Direct Connect 接続に接続されている VPC 内に AWS Storage Gateway ファイル ゲートウェイをデプロイします。 新しい SMB ファイル共有を作成します。 夜間のデータベース エクスポートを新しい SMB ファイル共有に書き込みます。
28
B. オンプレミスのデータセンターと AWS の間に AWS Direct Connect 接続を作成します。 トランジット VIF をプロビジョニングし、Direct Connect ゲートウェイに接続します。 各リージョンのトランジット ゲートウェイを使用して、Direct Connect ゲートウェイを他のすべての VPC に接続します。
29
D. 管理アカウントで IAM ユーザーを作成します。 メンバー アカウントで、最小限の特権アクセスを持つクロスアカウント ロールを作成します。 信頼ポリシーを使用して、IAM ユーザーにロールへのアクセスを許可します。
30
D. AWS Elastic Disaster Recovery を使用してオンプレミスサーバーを複製します。 AWS DataSync を使用して、Amazon FSx for Windows File Server ファイル システムにデータをレプリケートします。 ファイル システムを AWS サーバーにマウントします。 災害時には、オンプレミスサーバーを AWS にフェイルオーバーします。 Elastic Disaster Recovery を使用して、新規または既存のサーバーにフェールバックします。
31
A. HPC クラスターが単一のアベイラビリティーゾーン内で起動されていることを確認します。, C. Elastic Fabric Adaptor (EFA) が有効になっている EC2 インスタンス タイプを選択します。, F. Amazon EFS を Amazon FSx for Lustre に置き換えます。
32
A. SCP を使用して、必要なタグを持たないリソースの作成を拒否します。 会社が各 OU に割り当てたタグ値を含むタグ ポリシーを作成します。 タグポリシーを OU にアタッチします。
33
C. AWS IoT Core をデプロイし、Amazon Kinesis Data Firehose 配信ストリームに接続します。 AWS Lambda 関数を使用してデータ変換を処理します。 センサーをルーティングしてデータを AWS IoT Core に送信します。
34
A. 保持要件ごとにバックアップ ルールを含む AWS バックアップ プランを作成します。, B. バックアップを別のリージョンにコピーするように AWS バックアップ プランを構成します。, D. Amazon Simple Notice Service (Amazon SNS) トピックをバックアップ プランに追加して、BACKUP_JOB_COMPLETED 以外のステータスを持つ完了したジョブの通知を送信します。
35
B. Amazon Kinesis Data Streams を使用して受信センサーデータを収集し、Kinesis クライアントでデータを分析し、Amazon EMR を使用して結果を Amazon Redshift クラスターに保存します。
36
B. プライマリ リージョンからディザスター リカバリー リージョンへのフェイルオーバーには、Amazon Route 53 フェイルオーバー ルーティング ポリシーを使用します。 生存時間 (TTL) を 30 秒に設定します。, C. Amazon DynamoDB 内でグローバル テーブルを使用して、選択した 2 つのリージョンでデータにアクセスできるようにします。, E. リージョン内の複数のアベイラビリティーゾーンにわたる Web 層とアプリケーション層の Auto Scaling グループを使用してホット スタンバイ モデルを実装します。 最小限のサーバー数にはゾーン リザーブド インスタンスを使用し、追加のリソースにはオンデマンド インスタンスを使用します。
37
B. AWS IoT Core を使用して車両データを受信します。 データを Amazon S3 に保存する Amazon Kinesis Data Firehose 配信ストリームにデータをルーティングするルールを設定します。 配信ストリームから読み取り、異常を検出する Amazon Kinesis Data Analytics アプリケーションを作成します。
38
D. CodeCommit トリガーを設定して、AWS Lambda 関数を呼び出し、新しいコードの送信をスキャンして認証情報を取得します。 認証情報が見つかった場合は、AWS IAM で認証情報を無効にし、ユーザーに通知します。
39
A. S3 バケットを所有する AWS アカウント内のアプリケーションごとに S3 アクセス ポイントを作成します。 アプリケーションの VPC からのみアクセスできるように各アクセス ポイントを構成します。 アクセス ポイントからのアクセスを要求するようにバケット ポリシーを更新します。, C. 各アプリケーションの VP で Amazon S3 のゲートウェイ エンドポイントを作成します。S3 アクセス ポイントへのアクセスを許可するようにエンドポイント ポリシーを構成します。 アクセスポイントへのアクセスに使用するルートテーブルを指定します。
40
B. Splunk を宛先として Amazon Kinesis Data Firehose 配信ストリームを作成します。 CloudWatch Logs サブスクリプションフィルターによって送信されたレコードから個々のログイベントを抽出する Kinesis Data Firehose ストリームプロセッサを使用して、前処理 AWS Lambda 関数を構成します。 VPC フロー ログを有効にし、CloudWatch に送信します。 ログイベントを Kinesis Data Firehose 配信ストリームに送信する CloudWatch Logs サブスクリプションを作成します。
41
B. 管理アカウントとして機能する新しいアカウントを作成します。 すべての機能を有効にして AWS Organizations に組織をデプロイします。 既存のすべてのアカウントを組織に招待します。 各アカウントが招待を受け入れていることを確認してください。, D. すべての開発チームを含む OU を作成します。 米国外の地域でのリソースの作成を拒否する SCP を作成します。 SCP を OU に適用します。, E. 管理アカウントで IAM ロールを作成します。 Billing and Cost Management コンソールを表示する権限を含むポリシーをアタッチします。 財務チームのユーザーがその役割を引き受けることを許可します。 AWS Cost Explorer と Billing and Cost Management コンソールを使用してコストを分析します。
42
B. OrganizationAccountAccessRole IAM ロールを使用して、各メンバー アカウントに読み取り専用アクセスを持つ新しい IAM ロールを作成します。 各メンバー アカウントの IAM ロールとセキュリティ アカウントの間に信頼関係を確立します。 IAM ロールを使用してアクセス権を取得するようにセキュリティ チームに依頼します。
43
B. トランジットゲートウェイを作成し、既存の AWS アカウントと共有します。 既存の VPC をトランジット ゲートウェイに接続します。 インターネットへのアクセスを許可するために必要なルーティングを構成します。
44
B. レートベースのルールを使用して AWS WAF ウェブ ACL を作成し、ルールアクションをブロックに設定します。 Web ACL を ALB に接続します。
45
A. 顧客が所有する IP アドレスのブロックを会社の AWS アカウントに登録します。 アドレスプールから Elastic IP アドレスを作成し、AWS Transfer for SFTP エンドポイントに割り当てます。 AWS Transfer を使用してファイルを Amazon S3 に保存します。
46
A. 5 つの新しい EC2 インスタンスをクラスター配置グループに起動します。 EC2 インスタンス タイプが拡張ネットワークをサポートしていることを確認してください。
47
D. 6 つのパートナーが使用する IP アドレスへのアクセスを許可するルールを含む AWS WAF ウェブ ACL を作成します。 Web ACL を API に関連付けます。 リクエスト制限を含む使用量プランを作成し、それを API に関連付けます。 API キーを作成し、使用プランに追加します。
48
C. Aurora DB クラスターでデータベースアクティビティストリームを開始し、アクティビティストリームを Amazon Kinesis データストリームにプッシュします。 Kinesis データストリームを消費し、さらなる分析のためにデータを Amazon S3 に配信するように Amazon Kinesis Data Firehose を設定します。
49
C. r6g.4xlarge (メモリ最適化) インスタンスをデプロイするように Auto Scaling グループを構成します。 最小容量を 3、希望する容量を 3、最大容量を 12 に設定します。
50
D. DynamoDB アクセラレータ (DAX) をデプロイします。 プロビジョニングされた容量モードを使用します。 DynamoDB の自動スケーリングを設定します。
51
A. NLB サブネットとの間の通信を許可するために、NACL がログ サービス サブネットに接続されていることを確認します。 NACL が NLB サブネットに接続されて、EC2 インスタンスで実行されているログ サービス サブネットとの間の通信が可能になっていることを確認します。, C. EC2 インスタンスで実行されているログ サービスのセキュリティ グループを調べて、NLB サブネットからの受信が許可されていることを確認します。
52
B. 暗号化タイプとして Amazon S3 管理キー (SSE-S3) を使用したサーバー側暗号化を備えた新しい S3 バケットを作成します。 S3 バッチ操作を使用して、既存のオブジェクトを新しい S3 バケットにコピーします。 SSE-S3を指定します。
53
B. DynamoDB テーブルの WCU を評価して調整します。, D. Amazon Simple Queue Service (Amazon SQS) キューと、Amazon S3 と Lambda 関数の間の再処理ロジックを追加します。
54
D. AWS Amplify を使用して、メディア ファイルをアップロードするための静的ウェブサイトを作成します。 Amplify Hosting を使用して、Amazon CloudFront 経由でウェブサイトを提供します。 Amazon S3 を使用して、アップロードされたメディア ファイルを保存します。 Amazon Cognito を使用してユーザーを認証します。
55
B. 統合された CloudWatch エージェントを使用して Amazon CloudWatch Logs にログを公開するように EC2 インスタンスを設定します。
56
C. API Gateway API エンドポイントで CORS 設定を有効にします。 Access-Control-Allow-Origin ヘッダーが www.example.com に設定されているすべての応答を返すように API エンドポイントが構成されていることを確認します。
57
A. 管理アカウントとして機能する新しい AWS アカウントを作成します。 AWS Organizations に組織をデプロイします。 既存の各 AWS アカウントを組織に参加するように招待します。 各アカウントが招待を受け入れていることを確認してください。, C. 管理アカウントに AWS IAM Identity Center (AWS Single Sign-On) をデプロイします。 IAM Identity Center を Azure Active Directory に接続します。 ユーザーとグループを自動同期するように IAM Identity Center を構成します。, E. AWS IAM Identity Center (AWS Single Sign-On) 権限セットを作成します。 権限セットを適切な IAM Identity Center グループと AWS アカウントにアタッチします。
58
B. Auto Scaling が 75% のメモリ使用率に設定されている Amazon ECS コンテナを Amazon EC2 にデプロイします。 ECS タスクのスケーリングを使用して、移行されるアプリケーションごとに ECS タスクをデプロイします。 Amazon CloudWatch を使用してサービスとホストを監視します。
59
B. オンデマンド インスタンスでプライマリ ノードとコア ノードを起動します。 インスタンス フリート内のスポット インスタンスでタスク ノードを起動します。 処理が完了したら、すべてのインスタンスを含むクラスターを終了します。 オンデマンド インスタンスの使用量をカバーするには、Compute Savings Plan を購入します。
60
C. パブリック サブネットに単一の NAT ゲートウェイを展開します。 Elastic IP アドレスを NAT ゲートウェイに割り当てます。 Amazon CloudWatch をカスタムメトリクスとともに使用して、NAT ゲートウェイを監視します。 NAT ゲートウェイが異常な場合は、AWS Lambda 関数を呼び出して、別のサブネットに新しい NAT ゲートウェイを作成します。 Elastic IP アドレスを新しい NAT ゲートウェイに割り当てます。
61
B. 管理アカウントから、Organizations API の RemoveAccountFromOrganization オペレーションを使用して、古い組織から各開発者アカウントを削除します。, E. 新しい開発者組織の管理アカウントから Organizations API の InviteAccountToOrganization オペレーションを呼び出して、開発者アカウントに招待状を送信します。, E. 新しい開発者組織の管理アカウントから Organizations API の InviteAccountToOrganization オペレーションを呼び出して、開発者アカウントに招待状を送信します。
62
C. AWS Lambda 関数を呼び出す S3 イベント通知を使用します。
63
D. CodeDeploy エージェントがインストールされた新しい AMI を作成します。 新しい AMI を使用するように Auto Scaling グループの起動テンプレートを構成します。 CodeDeploy デプロイメント グループを EC2 インスタンスではなく Auto Scaling グループに関連付けます。
64
B. Web アプリケーションのトラフィックを処理するように構成された Auto Scaling グループを作成します。 新しい起動テンプレートを Auto Scaling グループにアタッチします。 Auto Scaling グループを既存の ALA にアタッチします。 既存の EC2 インスタンスを Auto Scaling グループにアタッチします。
65
C. ユーザーが S3 ゲートウェイ エンドポイントと承認された EC2 インスタンスを含む承認された VPC 構成を作成するために使用できる AWS Service Catalog ポートフォリオを作成します。 ポートフォリオを開発者アカウントと共有します。 承認された IAM ロールを使用するように AWS Service Catalog の起動制約を設定します。 開発者の IAM 権限の範囲を設定して、AWS Service Catalog へのアクセスのみを許可します。
66
C. AWS Control Tower ランディング ゾーンを起動します。 OU を作成し、承認されたリージョン外でサービスを実行するためのアクセスを拒否する SCP を接続します。
67
C. ウェブホスティングには Amazon S3 を使用し、データベース API サービスには AWS AppSync を使用します。 注文のキューイングには Amazon Simple Queue Service (Amazon SQS) を使用します。 ビジネスロジックには AWS Lambda を使用し、失敗した注文を保持する Amazon SQS 配信不能キューを使用します。
68
B. プライマリを us-east-1 に、セカンダリを us-west-2 に持つ Amazon Aurora グローバル データベースにデータベースを移行します。
69
D. 特定のメンバー アカウントを新しい OU に関連付けます。 条件を使用してタグ ポリシーと SCP を適用し、リージョンを制限します。
70
D. Amazon S3 のパブリック アクセスのブロック機能を使用して、バケットの IgnorePublicAcIs オプションを TRUE に設定します。
71
A. ターゲット アカウントに新しい RDS for PostgreSQL DB インスタンスを作成します。 AWS Schema Conversion Tool (AWS SCT) を使用して、データベース スキーマをソース データベースからターゲット データベースに移行します。, C. 2 つの AWS アカウントの VPC 間に VPC ピアリングを設定し、ターゲット アカウントから両方の DB インスタンスへの接続を提供します。 ターゲット アカウントの VPC からデータベース ポートでのトラフィックを許可するように、各 DB インスタンスにアタッチされているセキュリティ グループを構成します。, E. ターゲット アカウントで AWS Database Migration Service (AWS DMS) を使用して、ソース データベースからターゲット データベースへの全ロードと変更データ キャプチャ (CDC) 移行を実行します。 移行が完了したら、ターゲット DB インスタンスのエンドポイントを指すように CNAME レコードを変更します。
72
D. 新しい SQS 標準キューを配信不能キューとして構成し、障害のあるメッセージを隔離します。
73
A. チームのメーリングリストを対象とするタイプ「Email」のサブスクリプションを使用して、Amazon Simple Notice Service (Amazon SNS) トピックを作成します。, B. 入力引数を SNS トピックに転送する「電子メール」という名前のタスクを作成します。, C. "ErrorEquals": [ "States.ALL" ] および "Next": "Email" のステートメントを持つすべての Task、Map、および Parallel 状態に Catch フィールドを追加します。
74
B. VPC の DNS ホスト名をオンにします。 Amazon Route 53 リゾルバーを使用して新しいアウトバウンドエンドポイントを設定します。 company.example に対するリクエストをオンプレミスのネーム サーバーに転送するリゾルバー ルールを作成します。
75
C. VPC アタッチメントごとに専用のトランジット ゲートウェイ ルート テーブルを作成します。 許可された VPC にのみトラフィックをルーティングします。
76
C. Amazon AppStream 2.0 イメージ ビルダーを使用して、アプリケーションと必要な設定を含むイメージを作成します。 イメージを実行するための動的なフリート Auto Scaling ポリシーを使用して AppStream 2.0 オンデマンド フリートをプロビジョニングします。 AppStream 2.0 ユーザー プールを使用して認証を実装します。 ブラウザベースの AppStream 2.0 ストリーミング セッションを開始してアプリケーションにアクセスするように従業員に指示します。
77
B. データを Amazon S3 に保存します。 AWS Glue データカタログと Amazon Athena を使用してデータをクエリします。
78
C. タグ エディターを使用して、既存のリソースにタグを付けます。 コスト配分タグを作成して、コスト センターとプロジェクト ID を定義します。 SCP を使用して、リソースにコスト センターとプロジェクト ID を持たないリソースの作成を制限します。
79
A. AWS クラウドでネットワーク アカウントを確立します。 ネットワークアカウントにプライベート VPC を作成します。 オンプレミス環境とプライベート VPC の間にプライベート VIF を使用して AWS Direct Connect 接続をセットアップします。, C. ネットワークアカウントに Amazon S3 インターフェイスエンドポイントを作成します。
80
C. テーブルの Dynamo DB 自動スケーリングを有効にします。
81
C. AWS AppSync を使用し、WebSocket を利用してコメントを配信します。
82
B. 組織のルート レベルで SCP を作成し、s3:AccessPointNetworkOrigin 条件キーが VPC と評価されない限り、s3:CreateAccessPoint アクションを拒否します。
83
B. [環境 URL の交換] オプションを選択します。
84
C. アップロードされた画像を Amazon S3 バケットに保存し、Amazon Simple Queue Service (Amazon SQS) キューにメッセージを送信するように S3 バケット イベント通知を設定します。 Amazon EC2 インスタンスのフリートを作成して、SQS キューからメッセージを取得してイメージを処理し、別の S3 バケットに配置します。 EC2 インスタンスをスケールアウトするには、キューの深さの Amazon CloudWatch メトリクスを使用します。 Amazon CloudFront を有効にし、処理された画像を含む S3 バケットになるようにオリジンを設定します。
85
D. RDS for MySQL DB インスタンスを Amazon Aurora MySQL DB クラスターに変換します。 eu-west-1 をセカンダリ リージョンとして DB クラスターに追加します。 DB クラスターで書き込み転送を有効にします。 アプリケーションを eu-west-1 にデプロイします。 eu-west-1 の Aurora MySQL エンドポイントを使用するようにアプリケーションを設定します。
86
B. EC2 インスタンスから Elastic IP アドレスの関連付けを解除します。 SFTP ファイルのホスティングに使用する Amazon S3 バケットを作成します。 AWS Transfer Family サーバーを作成します。 VPC でホストされ、インターネットに接続されたエンドポイントを使用して Transfer Family サーバーを構成します。 SFTP Elastic IP アドレスを新しいエンドポイントに関連付けます。 顧客の IP アドレスを持つセキュリティ グループを新しいエンドポイントに接続します。 Transfer Family サーバーが S3 バケットを指すようにします。 すべてのファイルを SFTP サーバーから S3 バケットに同期します。
87
B. Amazon Kinesis Data Firehose を使用してデータを Amazon S3 に保存するように取り込みプロセスを更新します。 AWS Batch とスポット インスタンスを使用して、オンデマンド価格の 50% である最大スポット価格で夜間処理を実行します。
88
A. AWS Transfer Family サーバーを作成します。 Transfer Family サーバー用にインターネットに接続された VPC エンドポイントを構成します。 各サブネットの Elastic IP アドレスを指定します。 複数のアベイラビリティーゾーンにデプロイされる Amazon Elastic File System (Amazon EFS) ファイル システムにファイルを配置するように Transfer Family サーバーを構成します。 代わりに EFS エンドポイントをマウントするように、既存の NFS 共有にアクセスするダウンストリーム アプリケーションの構成を変更します。
89
A. AZ2 サブネットのみを使用するように Auto Scaling グループを更新します。 AZ1 サブネットを削除し、以前のアドレス空間の半分を使用して再作成します。 新しい AZ1 サブネットも使用するように Auto Scaling グループを調整します。 インスタンスが正常な場合は、AZ1 サブネットのみを使用するように Auto Scaling グループを調整します。 現在の AZ2 サブネットを削除します。 元の AZ1 サブネットのアドレス空間の後半を使用して、新しい AZ2 サブネットを作成します。 元の AZ2 サブネット アドレス空間の半分を使用して新しい AZ3 サブネットを作成し、3 つの新しいサブネットすべてをターゲットにするように Auto Scaling グループを更新します。
90
A. 組織の管理アカウントで許可されているプロジェクト タグ値を含むタグ ポリシーを作成します。 プロジェクト タグが追加されない限り、cloudformation:CreateStack API 操作を拒否する SCP を作成します。 SCP を各 OU に接続します。
91
C. アプリケーションの CPU とメモリの使用率に関する情報を使用して、Auto Scaling グループの起動テンプレートの新しいリビジョンで CPU とメモリの要件を指定します。 現在のインスタンス タイプを構成から削除します。
92
C. AWS Backup を使用して、セカンダリ AWS リージョンに Aurora データベースと DynamoDB データベースのバックアップを作成します。 プライマリ リージョンとセカンダリ リージョンで、リージョン エンドポイントを使用して API ゲートウェイ API を構成します。 Amazon Route 53 フェイルオーバー ルーティングを実装して、トラフィックをプライマリ リージョンからセカンダリ リージョンに切り替えます。
93
A. Lambda@Edge 関数をデプロイして、パラメータを名前で並べ替え、強制的に小文字にします。 CloudFront ビューアリクエストトリガーを選択して関数を呼び出します。
94
C. AWS Database Migration Service (AWS DMS) を使用する。 進行中の変更を Aurora データベースから別のリージョンの Amazon S3 バケットにレプリケートする DMS 変更データ キャプチャ (CDC) タスクを作成します。