SAA-C03 No2
問題一覧
1
宛先 S3 バケットで S3 Transfer Acceleration をオンにします。マルチパート アップロードを使用して、サイト データを宛先 S3 バケットに直接アップロードします。
2
Amazon S3 で直接 Amazon Athena を使用して、必要に応じてクエリを実行する。
3
組織 ID への参照を含む aws PrincipalOrgID グローバル条件キーを S3 バケット ポリシーに追加します。
4
S3 バケットへのゲートウェイ VPC エンドポイントを作成します。
5
両方の EBS ボリュームから Amazon EFS にデータをコピーします。新しいドキュメントを Amazon EFS に保存するようにアプリケーションを変更する
6
AWS Snowball Edge ジョブを作成します。オンプレミスで Snowball Edge デバイスを受け取ります。Snowball Edge クライアントを使用してデータをデバイスに転送します。AWS がデータを Amazon S3 にインポートできるように、デバイスを返却します。
7
複数の Amazon Simple Queue Service (Amazon SQS) サブスクリプションを使用して、Amazon Simple Notification Service (Amazon SNS) トピックにメッセージを発行します。キューからのメッセージを処理するようにコンシューマー アプリケーションを構成します。
8
Amazon Simple Queue Service (Amazon SQS) キューをジョブの送信先として設定します。Auto Scaling グループで管理される Amazon EC2 インスタンスを使用してコンピューティング ノードを実装します。キューのサイズに基づいて EC2 Auto Scaling を構成します。
9
Amazon S3 ファイル ゲートウェイを作成して、会社のストレージ スペースを拡張します。S3 ライフサイクル ポリシーを作成して、7 日後にデータを S3 Glacier Deep Archive に移行します。
10
アプリケーションが注文を受け取ると、API Gateway 統合を使用して、Amazon Simple Queue Service (Amazon SQS) FIFO キューにメッセージを送信します。処理のために AWS Lambda 関数を呼び出すように SQS FIFO キューを設定します。
11
AWS Secrets Manager を使用します。自動回転をオンにします。
12
S3 バケットと ALB をオリジンとして持つ Amazon CloudFront ディストリビューションを作成します。トラフィックを CloudFront ディストリビューションにルーティングするように Route 53 を設定します。
13
マルチ AZ 配置で Amazon Aurora を使用する。Aurora レプリカで Aurora Auto Scaling を設定します。
14
AWS Network Firewall を使用して、本番 VPC のトラフィック検査とトラフィックフィルタリングに必要なルールを作成します。
15
S3 バケットへのアクセスを許可する IAM ロールを作成します。ロールを EC2 インスタンスにアタッチします。
16
Amazon Simple Queue Service (Amazon SQS) キューを作成します。画像が S3 バケットにアップロードされたときに SQS キューに通知を送信するように S3 バケットを構成します。, Amazon Simple Queue Service (Amazon SQS) キューを呼び出し元として使用するように Lambda 関数を設定します。SQS メッセージが正常に処理されたら、キュー内のメッセージを削除します。
17
検査 VPC に Gateway Load Balancer をデプロイします。ゲートウェイ ロード バランサ エンドポイントを作成して、着信パケットを受信し、パケットをアプライアンスに転送します。
18
本番 EBS ボリュームの EBS スナップショットを作成します。EBS スナップショットで EBS 高速スナップショット復元機能をオンにします。スナップショットを新しい EBS ボリュームに復元します。テスト環境で新しい EBS ボリュームを EC2 インスタンスにアタッチします。
19
Amazon S3 バケットを使用して、ウェブサイトの静的コンテンツをホストする。Amazon CloudFront ディストリビューションをデプロイします。S3 バケットをオリジンとして設定します。バックエンド API には Amazon API Gateway と AWS Lambda 関数を使用します。データを Amazon DynamoDB に保存します。
20
S3 インテリジェント階層化
21
S3 ライフサイクル設定を作成して、1 か月後にオブジェクトを S3 Standard から S3 Glacier Deep Archive に移行します。
22
2 つの Lambda 関数を設定する。情報を受け取る関数を 1 つ設定します。情報をデータベースにロードするように他の関数を構成します。Amazon Simple Queue Service (Amazon SQS) キューを使用して、Lambda 関数を統合します。
23
適切なルールで AWS Config をオンにします。
24
CloudWatch コンソールからダッシュボードを共有します。製品マネージャーのメール アドレスを入力し、共有手順を完了します。ダッシュボードの共有可能なリンクをプロダクト マネージャーに提供します。
25
テストが完了したら、スナップショットを作成します。DB インスタンスを終了し、必要に応じてスナップショットを復元します。
26
AWS Config ルールを使用して、適切にタグ付けされていないリソースを定義および検出します。
27
Amazon S3 バケットを作成し、そこでウェブサイトをホストします。
28
トランザクション データを Amazon Kinesis Data Streams にストリーミングします。AWS Lambda 統合を使用して、すべてのトランザクションから機密データを削除し、トランザクション データを Amazon DynamoDB に保存します。他のアプリケーションは、Kinesis データストリームからトランザクションデータを消費できます。
29
AWS Config を使用して構成の変更を追跡し、AWS CloudTrail を使用して API 呼び出しを記録します。
30
AWS Shield Advanced を有効にし、ELB をそれに割り当てます。
31
既存の各インスタンスと新しいインスタンスに適切な IAM ロールをアタッチします。AWS Systems Manager Session Manager を使用して、リモート SSH セッションを確立します。
32
ストレージ タイプをプロビジョンド IOPS SSD に変更します。
33
Amazon Kinesis Data Firehose 配信ストリームを作成して、アラートを取り込みます。アラートを Amazon S3 バケットに配信するように Kinesis Data Firehose ストリームを設定します。14 日後にデータを Amazon S3 Glacier に移行するように S3 ライフサイクル構成をセットアップします。
34
Amazon AppFlow フローを作成して、各 SaaS ソースと S3 バケットの間でデータを転送します。S3 バケットへのアップロードが完了したときに、イベントを Amazon Simple Notification Service (Amazon SNS) トピックに送信するように S3 イベント通知を設定します。
35
Amazon S3 のゲートウェイ VPC エンドポイントをデプロイします。
36
新しい AWS Direct Connect 接続を確立し、この新しい接続を介してバックアップ トラフィックを転送します。
37
S3 バケットでバージョニングを有効にします。, S3 バケットで MFA 削除を有効にします。
38
Amazon Simple Queue Service (Amazon SQS) キューを作成し、SNS トピックにサブスクライブします。, Amazon Simple Queue Service (Amazon SQS) キューから読み取るように Lambda 関数を変更します。
39
安全な転送ポイントとして Amazon S3 バケットを使用する。Amazon Macie を使用して、バケット内のオブジェクトをスキャンします。オブジェクトに PII が含まれている場合は、Amazon Simple Notification Service (Amazon SNS) を使用して管理者への通知をトリガーし、PII を含むオブジェクトを削除します。
40
必要なリージョンと 3 つのアベイラビリティーゾーンを指定するオンデマンドキャパシティー予約を作成します。
41
AWS Systems Manager Run Command を使用して、すべての EC2 インスタンスにパッチを適用するカスタム コマンドを実行します。
42
S3 ライフサイクル ポリシーを使用して、1 年後にレコードを S3 Standard から S3 Glacier Deep Archive に移行します。S3 オブジェクト ロックをコンプライアンス モードで 10 年間使用します。
43
マルチ AZ 設定を使用して、ファイル共有環境を Amazon FSx for Windows File Server に拡張します。すべてのデータを FSx for Windows ファイル サーバーに移行します。
44
プライベート サブネット内のインスタンスに割り当てられたセキュリティ グループからのインバウンド トラフィックを許可するセキュリティ グループを作成します。セキュリティグループを DB インスタンスにアタッチします。
45
Amazon Rekognition を使用して不適切なコンテンツを検出する。信頼性の低い予測には人間によるレビューを使用します。
46
AWS Fargate で Amazon Elastic Container Service (Amazon ECS) を使用する。
47
ALB でリスナー ルールを作成して、HTTP トラフィックを HTTPS にリダイレクトします。
48
データベース認証情報をシークレットとして AWS Secrets Manager に保存します。シークレットの自動ローテーションをオンにします。必要なアクセス許可を EC2 ロールにアタッチして、シークレットへのアクセスを許可します。
49
AWS Certificate Manager (ACM) を使用して、SSL/TLS 証明書をインポートします。証明書を ALB に適用します。Amazon EventBridge (Amazon CloudWatch Events) を使用して、証明書の有効期限が近づいたときに通知を送信します。証明書を手動でローテーションします。
50
Amazon Textract を使用してレポートからテキストを抽出する。Amazon Comprehend Medical を使用して、抽出されたテキストから PHI を識別します。
51
S3 バケット ライフサイクル ポリシーを作成して、オブジェクトの作成から 30 日後にファイルを S3 標準から S3 標準 - 低頻度アクセス (S3 標準 - IA) に移動します。オブジェクトの作成から 4 年後にファイルを削除します。
52
ChangeMessageVisibility API 呼び出しを使用して、表示タイムアウトを増やします。
53
AWS Direct Connect 接続をリージョンにプロビジョニングします。プライマリ Direct Connect 接続が失敗した場合のバックアップとして VPN 接続をプロビジョニングします。
54
複数のアベイラビリティーゾーンを使用するように Auto Scaling グループを構成します。データベースをマルチ AZ として設定します。データベースの Amazon RDS Proxy インスタンスを設定します。
55
NLB を Application Load Balancer に置き換えます。会社のアプリケーションの URL を指定して、HTTP ヘルス チェックを有効にします。異常なインスタンスを置き換える Auto Scaling アクションを設定します。
56
DynamoDB ポイントインタイム リカバリを設定します。RPO 回復の場合は、目的の時点に復元します。
57
S3 VPC ゲートウェイ エンドポイントを VPC にデプロイし、S3 バケットへのアクセスを許可するエンドポイント ポリシーをアタッチします。
58
ポート 443 で 0.0.0.0/0 からのインバウンド トラフィックを許可するように、Web 層のセキュリティ グループを構成します。, データベース層のセキュリティ グループを構成して、Web 層のセキュリティ グループからのポート 1433 でのインバウンド トラフィックを許可します。
59
Amazon API Gateway を使用し、トランザクションをアプリケーション層として AWS Lambda 関数に転送します。アプリケーション サービス間の通信レイヤーとして Amazon Simple Queue Service (Amazon SQS) を使用します。
60
Amazon Kinesis データストリームにデータを送信するように Amazon API Gateway API を設定します。Kinesis データストリームをデータソースとして使用する Amazon Kinesis Data Firehose 配信ストリームを作成します。AWS Lambda 関数を使用してデータを変換します。Kinesis Data Firehose 配信ストリームを使用して、データを Amazon S3 に送信します。
61
オンデマンド容量モードで DynamoDB テーブルを作成します。
62
AMI の launchPermission プロパティを変更します。AMI を MSP パートナーの AWS アカウントとのみ共有します。キー ポリシーを変更して、MSP パートナーの AWS アカウントがキーを使用できるようにします。
63
処理が必要なジョブを保持する Amazon SQS キューを作成します。プロセッサ アプリケーションで構成される Amazon Machine Image (AMI) を作成します。AMI を使用する起動テンプレートを作成します。起動テンプレートを使用して Auto Scaling グループを作成します。Auto Scaling グループのスケーリング ポリシーを設定して、SQS キュー内の項目数に基づいてノードを追加および削除します。
64
30 日以内に期限切れになる証明書をチェックする AWS Config ルールを作成します。AWS Config が非準拠のリソースを報告したときに、Amazon Simple Notification Service (Amazon SNS) を介してカスタムアラートを呼び出すように Amazon EventBridge (Amazon CloudWatch Events) を設定します。
65
本番 EC2 インスタンスにはリザーブド インスタンスを使用します。開発およびテスト EC2 インスタンスにはオンデマンド インスタンスを使用します。
66
アップロードされたドキュメントを、S3 バージョニングと S3 オブジェクト ロックが有効になっている Amazon S3 バケットに保存します。
67
Amazon Simple Queue Service (Amazon SQS) FIFO キューに顧客データを保存します。キューをポーリングし、顧客データをデータベースに保存する新しい Lambda 関数を作成します。
68
会社の S3 バケットでリクエスタ支払い機能を設定します。
69
S3 バケットでバージョニングと MFA 削除機能を有効にします。
70
S3 ゲートウェイ エンドポイントを構成します。
71
VPC 内で Amazon S3 の VPC ゲートウェイ エンドポイントを設定します。, VPC で実行されているアプリケーション層のみへのアクセスを制限するバケット ポリシーを作成します。
72
イベント通知を Amazon Simple Queue Service (Amazon SQS) キューに送信するように Amazon S3 を設定する。AWS Lambda 関数を使用してキューから読み取り、データを処理します。結果の JSON ファイルを Amazon DynamoDB に保存します。
73
データベースの読み取りレプリカを作成します。ソース データベースと同じコンピューティング リソースとストレージ リソースを使用してリードレプリカを構成します。
74
ユーザーのソース IP が 10.100.100.254 の場合、ユーザーは us-east-1 リージョンで EC2 インスタンスを終了できます。
75
AWS で Amazon FSx for Windows File Server ファイル システムを作成し、認証用の Active Directory ドメインを設定します。
76
Amazon FSx for Lustre ファイル システムを作成します。ファイル システムをオリジン サーバーに接続します。アプリケーション サーバーをファイル システムに接続します。
77
オンプレミスのデータセンターに AWS DataSync エージェントをインストールします。, AWS DataSync を使用して、オンプレミス SFTP サーバーに適したロケーション構成を作成します。
78
ジョブ ブックマークを使用するようにジョブを編集します。
79
AWS Shield Advanced を使用して DDoS 攻撃を阻止します。, 静的コンテンツと動的コンテンツの両方に Amazon CloudFront を使用するようにウェブサイトを構成します。
80
lambda:InvokeFunction をアクションとして、Service: events.amazonaws.com をプリンシパルとして、リソースベースのポリシーを関数に追加します。
81
自動ローテーションによる AWS KMS キー (SSE-KMS) によるサーバー側の暗号化
82
AWS Lambda で Amazon API Gateway を使用する。
83
S3 オブジェクト ロックを有効にして S3 バケットを作成します。バージョニングを有効にします。オブジェクトにリーガル ホールドを追加します。オブジェクトを削除する必要があるユーザーの IAM ポリシーに s3:PutObjectLegalHold アクセス許可を追加します。
84
元の画像を Amazon S3 にアップロードするようにウェブサーバーを設定します。, イメージがアップロードされたときに AWS Lambda 関数を呼び出すように S3 イベント通知を設定します。関数を使用して画像のサイズを変更します。
85
2 つのアベイラビリティーゾーンにまたがって構成されたアクティブ/スタンバイブローカーで Amazon MQ を使用します。2 つのアベイラビリティーゾーンにまたがるコンシューマー EC2 インスタンスの Auto Scaling グループを追加します。マルチ AZ を有効にして Amazon RDS for MySQL を使用します。
86
Amazon Elastic Container Service (Amazon ECS) で AWS Fargate を使用して、Service Auto Scaling でコンテナ化されたウェブ アプリケーションを実行します。Application Load Balancer を使用して、着信要求を分散します。
87
AWS Snowball Edge Storage Optimized デバイスを注文します。データをデバイスにコピーします。AWS Glue を使用してカスタム変換ジョブを作成します。
88
AWS Lambda を使用して写真を処理する。写真を Amazon S3 に保存します。DynamoDB を保持してメタデータを保存します。
89
EC2 インスタンスをプライベートサブネットに移動します。Amazon S3 の VPC エンドポイントを作成し、そのエンドポイントをプライベート サブネットのルート テーブルにリンクします。
90
Amazon S3
91
AWS Global Accelerator で標準アクセラレータを作成します。us-west-2 と eu-west-1 にエンドポイント グループを作成します。エンドポイント グループのエンドポイントとして 2 つの NLB を追加します。
92
最新の DB スナップショットのコピーを暗号化します。暗号化されたスナップショットを復元して、既存の DB インスタンスを置き換えます。
93
AWS Key Management Service (AWS KMS) を使用して暗号化キーを保護します。
94
EC2 スポット インスタンスを実装します。
95
S3 ライフサイクル ポリシーを設定して、2 年後にオブジェクトを S3 Glacier Deep Archive に移行します。
96
最大のパフォーマンスを実現する Amazon EC2 インスタンス ストア、耐久性のあるデータ ストレージを実現する Amazon S3、アーカイブ ストレージを実現する Amazon S3 Glacier
97
Amazon Elastic Kubernetes Service (Amazon EKS) マネージド ノード グループでスポット インスタンスを使用する。
98
ターゲット追跡ポリシーを使用して、Auto Scaling グループを動的にスケーリングします。
99
オリジン アクセス ID (OAI) を作成します。OAI を CloudFront ディストリビューションに割り当てます。OAI のみが読み取り権限を持つように、S3 バケットの権限を設定します。
100
Amazon CloudFront と Amazon S3
SAA-C03
SAA-C03
Tatsuya O · 111問 · 3年前SAA-C03
SAA-C03
111問 • 3年前LPIC 101-500 Part1
LPIC 101-500 Part1
Tatsuya O · 80問 · 2年前LPIC 101-500 Part1
LPIC 101-500 Part1
80問 • 2年前LPIC 101-500 Part2
LPIC 101-500 Part2
Tatsuya O · 12回閲覧 · 40問 · 2年前LPIC 101-500 Part2
LPIC 101-500 Part2
12回閲覧 • 40問 • 2年前LPIC 102 Part1
LPIC 102 Part1
Tatsuya O · 65問 · 2年前LPIC 102 Part1
LPIC 102 Part1
65問 • 2年前LPIC 102 Part2
LPIC 102 Part2
Tatsuya O · 14回閲覧 · 55問 · 2年前LPIC 102 Part2
LPIC 102 Part2
14回閲覧 • 55問 • 2年前LPIC 201-450
LPIC 201-450
Tatsuya O · 60問 · 2年前LPIC 201-450
LPIC 201-450
60問 • 2年前問題一覧
1
宛先 S3 バケットで S3 Transfer Acceleration をオンにします。マルチパート アップロードを使用して、サイト データを宛先 S3 バケットに直接アップロードします。
2
Amazon S3 で直接 Amazon Athena を使用して、必要に応じてクエリを実行する。
3
組織 ID への参照を含む aws PrincipalOrgID グローバル条件キーを S3 バケット ポリシーに追加します。
4
S3 バケットへのゲートウェイ VPC エンドポイントを作成します。
5
両方の EBS ボリュームから Amazon EFS にデータをコピーします。新しいドキュメントを Amazon EFS に保存するようにアプリケーションを変更する
6
AWS Snowball Edge ジョブを作成します。オンプレミスで Snowball Edge デバイスを受け取ります。Snowball Edge クライアントを使用してデータをデバイスに転送します。AWS がデータを Amazon S3 にインポートできるように、デバイスを返却します。
7
複数の Amazon Simple Queue Service (Amazon SQS) サブスクリプションを使用して、Amazon Simple Notification Service (Amazon SNS) トピックにメッセージを発行します。キューからのメッセージを処理するようにコンシューマー アプリケーションを構成します。
8
Amazon Simple Queue Service (Amazon SQS) キューをジョブの送信先として設定します。Auto Scaling グループで管理される Amazon EC2 インスタンスを使用してコンピューティング ノードを実装します。キューのサイズに基づいて EC2 Auto Scaling を構成します。
9
Amazon S3 ファイル ゲートウェイを作成して、会社のストレージ スペースを拡張します。S3 ライフサイクル ポリシーを作成して、7 日後にデータを S3 Glacier Deep Archive に移行します。
10
アプリケーションが注文を受け取ると、API Gateway 統合を使用して、Amazon Simple Queue Service (Amazon SQS) FIFO キューにメッセージを送信します。処理のために AWS Lambda 関数を呼び出すように SQS FIFO キューを設定します。
11
AWS Secrets Manager を使用します。自動回転をオンにします。
12
S3 バケットと ALB をオリジンとして持つ Amazon CloudFront ディストリビューションを作成します。トラフィックを CloudFront ディストリビューションにルーティングするように Route 53 を設定します。
13
マルチ AZ 配置で Amazon Aurora を使用する。Aurora レプリカで Aurora Auto Scaling を設定します。
14
AWS Network Firewall を使用して、本番 VPC のトラフィック検査とトラフィックフィルタリングに必要なルールを作成します。
15
S3 バケットへのアクセスを許可する IAM ロールを作成します。ロールを EC2 インスタンスにアタッチします。
16
Amazon Simple Queue Service (Amazon SQS) キューを作成します。画像が S3 バケットにアップロードされたときに SQS キューに通知を送信するように S3 バケットを構成します。, Amazon Simple Queue Service (Amazon SQS) キューを呼び出し元として使用するように Lambda 関数を設定します。SQS メッセージが正常に処理されたら、キュー内のメッセージを削除します。
17
検査 VPC に Gateway Load Balancer をデプロイします。ゲートウェイ ロード バランサ エンドポイントを作成して、着信パケットを受信し、パケットをアプライアンスに転送します。
18
本番 EBS ボリュームの EBS スナップショットを作成します。EBS スナップショットで EBS 高速スナップショット復元機能をオンにします。スナップショットを新しい EBS ボリュームに復元します。テスト環境で新しい EBS ボリュームを EC2 インスタンスにアタッチします。
19
Amazon S3 バケットを使用して、ウェブサイトの静的コンテンツをホストする。Amazon CloudFront ディストリビューションをデプロイします。S3 バケットをオリジンとして設定します。バックエンド API には Amazon API Gateway と AWS Lambda 関数を使用します。データを Amazon DynamoDB に保存します。
20
S3 インテリジェント階層化
21
S3 ライフサイクル設定を作成して、1 か月後にオブジェクトを S3 Standard から S3 Glacier Deep Archive に移行します。
22
2 つの Lambda 関数を設定する。情報を受け取る関数を 1 つ設定します。情報をデータベースにロードするように他の関数を構成します。Amazon Simple Queue Service (Amazon SQS) キューを使用して、Lambda 関数を統合します。
23
適切なルールで AWS Config をオンにします。
24
CloudWatch コンソールからダッシュボードを共有します。製品マネージャーのメール アドレスを入力し、共有手順を完了します。ダッシュボードの共有可能なリンクをプロダクト マネージャーに提供します。
25
テストが完了したら、スナップショットを作成します。DB インスタンスを終了し、必要に応じてスナップショットを復元します。
26
AWS Config ルールを使用して、適切にタグ付けされていないリソースを定義および検出します。
27
Amazon S3 バケットを作成し、そこでウェブサイトをホストします。
28
トランザクション データを Amazon Kinesis Data Streams にストリーミングします。AWS Lambda 統合を使用して、すべてのトランザクションから機密データを削除し、トランザクション データを Amazon DynamoDB に保存します。他のアプリケーションは、Kinesis データストリームからトランザクションデータを消費できます。
29
AWS Config を使用して構成の変更を追跡し、AWS CloudTrail を使用して API 呼び出しを記録します。
30
AWS Shield Advanced を有効にし、ELB をそれに割り当てます。
31
既存の各インスタンスと新しいインスタンスに適切な IAM ロールをアタッチします。AWS Systems Manager Session Manager を使用して、リモート SSH セッションを確立します。
32
ストレージ タイプをプロビジョンド IOPS SSD に変更します。
33
Amazon Kinesis Data Firehose 配信ストリームを作成して、アラートを取り込みます。アラートを Amazon S3 バケットに配信するように Kinesis Data Firehose ストリームを設定します。14 日後にデータを Amazon S3 Glacier に移行するように S3 ライフサイクル構成をセットアップします。
34
Amazon AppFlow フローを作成して、各 SaaS ソースと S3 バケットの間でデータを転送します。S3 バケットへのアップロードが完了したときに、イベントを Amazon Simple Notification Service (Amazon SNS) トピックに送信するように S3 イベント通知を設定します。
35
Amazon S3 のゲートウェイ VPC エンドポイントをデプロイします。
36
新しい AWS Direct Connect 接続を確立し、この新しい接続を介してバックアップ トラフィックを転送します。
37
S3 バケットでバージョニングを有効にします。, S3 バケットで MFA 削除を有効にします。
38
Amazon Simple Queue Service (Amazon SQS) キューを作成し、SNS トピックにサブスクライブします。, Amazon Simple Queue Service (Amazon SQS) キューから読み取るように Lambda 関数を変更します。
39
安全な転送ポイントとして Amazon S3 バケットを使用する。Amazon Macie を使用して、バケット内のオブジェクトをスキャンします。オブジェクトに PII が含まれている場合は、Amazon Simple Notification Service (Amazon SNS) を使用して管理者への通知をトリガーし、PII を含むオブジェクトを削除します。
40
必要なリージョンと 3 つのアベイラビリティーゾーンを指定するオンデマンドキャパシティー予約を作成します。
41
AWS Systems Manager Run Command を使用して、すべての EC2 インスタンスにパッチを適用するカスタム コマンドを実行します。
42
S3 ライフサイクル ポリシーを使用して、1 年後にレコードを S3 Standard から S3 Glacier Deep Archive に移行します。S3 オブジェクト ロックをコンプライアンス モードで 10 年間使用します。
43
マルチ AZ 設定を使用して、ファイル共有環境を Amazon FSx for Windows File Server に拡張します。すべてのデータを FSx for Windows ファイル サーバーに移行します。
44
プライベート サブネット内のインスタンスに割り当てられたセキュリティ グループからのインバウンド トラフィックを許可するセキュリティ グループを作成します。セキュリティグループを DB インスタンスにアタッチします。
45
Amazon Rekognition を使用して不適切なコンテンツを検出する。信頼性の低い予測には人間によるレビューを使用します。
46
AWS Fargate で Amazon Elastic Container Service (Amazon ECS) を使用する。
47
ALB でリスナー ルールを作成して、HTTP トラフィックを HTTPS にリダイレクトします。
48
データベース認証情報をシークレットとして AWS Secrets Manager に保存します。シークレットの自動ローテーションをオンにします。必要なアクセス許可を EC2 ロールにアタッチして、シークレットへのアクセスを許可します。
49
AWS Certificate Manager (ACM) を使用して、SSL/TLS 証明書をインポートします。証明書を ALB に適用します。Amazon EventBridge (Amazon CloudWatch Events) を使用して、証明書の有効期限が近づいたときに通知を送信します。証明書を手動でローテーションします。
50
Amazon Textract を使用してレポートからテキストを抽出する。Amazon Comprehend Medical を使用して、抽出されたテキストから PHI を識別します。
51
S3 バケット ライフサイクル ポリシーを作成して、オブジェクトの作成から 30 日後にファイルを S3 標準から S3 標準 - 低頻度アクセス (S3 標準 - IA) に移動します。オブジェクトの作成から 4 年後にファイルを削除します。
52
ChangeMessageVisibility API 呼び出しを使用して、表示タイムアウトを増やします。
53
AWS Direct Connect 接続をリージョンにプロビジョニングします。プライマリ Direct Connect 接続が失敗した場合のバックアップとして VPN 接続をプロビジョニングします。
54
複数のアベイラビリティーゾーンを使用するように Auto Scaling グループを構成します。データベースをマルチ AZ として設定します。データベースの Amazon RDS Proxy インスタンスを設定します。
55
NLB を Application Load Balancer に置き換えます。会社のアプリケーションの URL を指定して、HTTP ヘルス チェックを有効にします。異常なインスタンスを置き換える Auto Scaling アクションを設定します。
56
DynamoDB ポイントインタイム リカバリを設定します。RPO 回復の場合は、目的の時点に復元します。
57
S3 VPC ゲートウェイ エンドポイントを VPC にデプロイし、S3 バケットへのアクセスを許可するエンドポイント ポリシーをアタッチします。
58
ポート 443 で 0.0.0.0/0 からのインバウンド トラフィックを許可するように、Web 層のセキュリティ グループを構成します。, データベース層のセキュリティ グループを構成して、Web 層のセキュリティ グループからのポート 1433 でのインバウンド トラフィックを許可します。
59
Amazon API Gateway を使用し、トランザクションをアプリケーション層として AWS Lambda 関数に転送します。アプリケーション サービス間の通信レイヤーとして Amazon Simple Queue Service (Amazon SQS) を使用します。
60
Amazon Kinesis データストリームにデータを送信するように Amazon API Gateway API を設定します。Kinesis データストリームをデータソースとして使用する Amazon Kinesis Data Firehose 配信ストリームを作成します。AWS Lambda 関数を使用してデータを変換します。Kinesis Data Firehose 配信ストリームを使用して、データを Amazon S3 に送信します。
61
オンデマンド容量モードで DynamoDB テーブルを作成します。
62
AMI の launchPermission プロパティを変更します。AMI を MSP パートナーの AWS アカウントとのみ共有します。キー ポリシーを変更して、MSP パートナーの AWS アカウントがキーを使用できるようにします。
63
処理が必要なジョブを保持する Amazon SQS キューを作成します。プロセッサ アプリケーションで構成される Amazon Machine Image (AMI) を作成します。AMI を使用する起動テンプレートを作成します。起動テンプレートを使用して Auto Scaling グループを作成します。Auto Scaling グループのスケーリング ポリシーを設定して、SQS キュー内の項目数に基づいてノードを追加および削除します。
64
30 日以内に期限切れになる証明書をチェックする AWS Config ルールを作成します。AWS Config が非準拠のリソースを報告したときに、Amazon Simple Notification Service (Amazon SNS) を介してカスタムアラートを呼び出すように Amazon EventBridge (Amazon CloudWatch Events) を設定します。
65
本番 EC2 インスタンスにはリザーブド インスタンスを使用します。開発およびテスト EC2 インスタンスにはオンデマンド インスタンスを使用します。
66
アップロードされたドキュメントを、S3 バージョニングと S3 オブジェクト ロックが有効になっている Amazon S3 バケットに保存します。
67
Amazon Simple Queue Service (Amazon SQS) FIFO キューに顧客データを保存します。キューをポーリングし、顧客データをデータベースに保存する新しい Lambda 関数を作成します。
68
会社の S3 バケットでリクエスタ支払い機能を設定します。
69
S3 バケットでバージョニングと MFA 削除機能を有効にします。
70
S3 ゲートウェイ エンドポイントを構成します。
71
VPC 内で Amazon S3 の VPC ゲートウェイ エンドポイントを設定します。, VPC で実行されているアプリケーション層のみへのアクセスを制限するバケット ポリシーを作成します。
72
イベント通知を Amazon Simple Queue Service (Amazon SQS) キューに送信するように Amazon S3 を設定する。AWS Lambda 関数を使用してキューから読み取り、データを処理します。結果の JSON ファイルを Amazon DynamoDB に保存します。
73
データベースの読み取りレプリカを作成します。ソース データベースと同じコンピューティング リソースとストレージ リソースを使用してリードレプリカを構成します。
74
ユーザーのソース IP が 10.100.100.254 の場合、ユーザーは us-east-1 リージョンで EC2 インスタンスを終了できます。
75
AWS で Amazon FSx for Windows File Server ファイル システムを作成し、認証用の Active Directory ドメインを設定します。
76
Amazon FSx for Lustre ファイル システムを作成します。ファイル システムをオリジン サーバーに接続します。アプリケーション サーバーをファイル システムに接続します。
77
オンプレミスのデータセンターに AWS DataSync エージェントをインストールします。, AWS DataSync を使用して、オンプレミス SFTP サーバーに適したロケーション構成を作成します。
78
ジョブ ブックマークを使用するようにジョブを編集します。
79
AWS Shield Advanced を使用して DDoS 攻撃を阻止します。, 静的コンテンツと動的コンテンツの両方に Amazon CloudFront を使用するようにウェブサイトを構成します。
80
lambda:InvokeFunction をアクションとして、Service: events.amazonaws.com をプリンシパルとして、リソースベースのポリシーを関数に追加します。
81
自動ローテーションによる AWS KMS キー (SSE-KMS) によるサーバー側の暗号化
82
AWS Lambda で Amazon API Gateway を使用する。
83
S3 オブジェクト ロックを有効にして S3 バケットを作成します。バージョニングを有効にします。オブジェクトにリーガル ホールドを追加します。オブジェクトを削除する必要があるユーザーの IAM ポリシーに s3:PutObjectLegalHold アクセス許可を追加します。
84
元の画像を Amazon S3 にアップロードするようにウェブサーバーを設定します。, イメージがアップロードされたときに AWS Lambda 関数を呼び出すように S3 イベント通知を設定します。関数を使用して画像のサイズを変更します。
85
2 つのアベイラビリティーゾーンにまたがって構成されたアクティブ/スタンバイブローカーで Amazon MQ を使用します。2 つのアベイラビリティーゾーンにまたがるコンシューマー EC2 インスタンスの Auto Scaling グループを追加します。マルチ AZ を有効にして Amazon RDS for MySQL を使用します。
86
Amazon Elastic Container Service (Amazon ECS) で AWS Fargate を使用して、Service Auto Scaling でコンテナ化されたウェブ アプリケーションを実行します。Application Load Balancer を使用して、着信要求を分散します。
87
AWS Snowball Edge Storage Optimized デバイスを注文します。データをデバイスにコピーします。AWS Glue を使用してカスタム変換ジョブを作成します。
88
AWS Lambda を使用して写真を処理する。写真を Amazon S3 に保存します。DynamoDB を保持してメタデータを保存します。
89
EC2 インスタンスをプライベートサブネットに移動します。Amazon S3 の VPC エンドポイントを作成し、そのエンドポイントをプライベート サブネットのルート テーブルにリンクします。
90
Amazon S3
91
AWS Global Accelerator で標準アクセラレータを作成します。us-west-2 と eu-west-1 にエンドポイント グループを作成します。エンドポイント グループのエンドポイントとして 2 つの NLB を追加します。
92
最新の DB スナップショットのコピーを暗号化します。暗号化されたスナップショットを復元して、既存の DB インスタンスを置き換えます。
93
AWS Key Management Service (AWS KMS) を使用して暗号化キーを保護します。
94
EC2 スポット インスタンスを実装します。
95
S3 ライフサイクル ポリシーを設定して、2 年後にオブジェクトを S3 Glacier Deep Archive に移行します。
96
最大のパフォーマンスを実現する Amazon EC2 インスタンス ストア、耐久性のあるデータ ストレージを実現する Amazon S3、アーカイブ ストレージを実現する Amazon S3 Glacier
97
Amazon Elastic Kubernetes Service (Amazon EKS) マネージド ノード グループでスポット インスタンスを使用する。
98
ターゲット追跡ポリシーを使用して、Auto Scaling グループを動的にスケーリングします。
99
オリジン アクセス ID (OAI) を作成します。OAI を CloudFront ディストリビューションに割り当てます。OAI のみが読み取り権限を持つように、S3 バケットの権限を設定します。
100
Amazon CloudFront と Amazon S3