SAA-C03
問題一覧
1
認証情報をシークレットとして AWS Secrets Manager に保存します。必要なリージョンにマルチリージョン シークレット レプリケーションを使用します。スケジュールに従ってシークレットをローテーションするように Secrets Manager を設定します。
2
Amazon QuickSight で分析を作成します。すべてのデータ ソースを接続し、新しいデータセットを作成します。ダッシュボードを公開してデータを視覚化します。ダッシュボードを適切なユーザーおよびグループと共有します。
3
Cost Explorer の詳細なフィルタリング機能を使用して、インスタンス タイプに基づいて EC2 コストの詳細な分析を実行します。
4
AWS SSO コンソールから AWS Single Sign-On (AWS SSO) を有効にします。AWS Directory Service for Microsoft Active Directory を使用して、企業の自己管理型 Microsoft Active Directory を AWS SSO に接続するための双方向のフォレスト信頼を作成します。
5
Network Load Balancer (NLB) と関連するターゲット グループをデプロイします。ターゲット グループを Auto Scaling グループに関連付けます。各リージョンで NLB を AWS Global Accelerator エンドポイントとして使用します。
6
顧客管理のマルチリージョン KMS キーを作成します。各リージョンに S3 バケットを作成します。S3 バケット間のレプリケーションを構成します。クライアント側の暗号化で KMS キーを使用するようにアプリケーションを構成します。
7
S3 バケットの前に Amazon CloudFront ディストリビューションを追加します。CloudFront ディストリビューションを指すように Route 53 エントリを編集します。
8
カタログを Amazon Elastic File System (Amazon EFS) ファイル システムに移動します。
9
Amazon S3 Intelligent-Tiering に個々のファイルを保存します。S3 ライフサイクル ポリシーを使用して、1 年後にファイルを S3 Glacier Flexible Retrieval に移動します。Amazon Athena を使用して、Amazon S3 にあるファイルをクエリして取得します。S3 Glacier Select を使用して、S3 Glacier にあるファイルをクエリして取得します。
10
Amazon Simple Email Service (Amazon SES) を使用してデータをフォーマットし、レポートを E メールで送信します。, AWS Lambda 関数を呼び出してアプリケーションの API にデータをクエリする Amazon EventBridge (Amazon CloudWatch Events) のスケジュールされたイベントを作成します。
11
マルチ AZ Auto Scaling グループ内の Amazon EC2 インスタンスにアプリケーションを移行します。ストレージには Amazon Elastic File System (Amazon EFS) を使用します。
12
Regional API Gateway エンドポイントを作成します。API Gateway エンドポイントを会社のドメイン名に関連付けます。会社のドメイン名に関連付けられたパブリック証明書を同じリージョンの AWS Certificate Manager (ACM) にインポートします。証明書を API Gateway エンドポイントに添付します。トラフィックを API Gateway エンドポイントにルーティングするように Route 53 を構成します。
13
Amazon Kinesis Data Streams からデータを収集します。Amazon Kinesis Data Firehose を使用して、データを Amazon S3 データレイクに送信します。分析のために Amazon Redshift にデータをロードします。
14
.pdf ファイルを Amazon S3 に保存します。AWS Lambda 関数を呼び出してファイルを .jpg 形式に変換し、Amazon S3 に保存するように S3 PUT イベントを設定します。
15
AWS で Windows ファイルサーバー用の Amazon FSx をデプロイして設定します。オンプレミスで Amazon FSx File Gateway をデプロイして設定します。オンプレミスのファイル データを FSx ファイル ゲートウェイに移動します。FSx for Windows File Server on AWS を使用するようにクラウド ワークロードを構成します。FSx ファイル ゲートウェイを使用するようにオンプレミスのワークロードを構成します。
16
踏み台ホストの現在のセキュリティ グループを、会社の外部 IP 範囲からのインバウンド アクセスのみを許可するグループに置き換えます。, アプリケーション インスタンスの現在のセキュリティ グループを、踏み台ホストのプライベート IP アドレスからのみインバウンド SSH アクセスを許可するグループに置き換えます。
17
AWS Direct Connect を介した AWS DataSync
18
AWS Backup を使用して、テーブルのバックアップ スケジュールと保持ポリシーを作成します。
19
オンプレミス サーバーを指すカスタムオリジンで Amazon CloudFront を使用する。
20
データベース ユーザーの認証情報を AWS Secrets Manager に保存します。ウェブサーバーが AWS Secrets Manager にアクセスできるようにするために必要な IAM アクセス許可を付与します。
21
データベースの読み取りレプリカを作成します。読み取りレプリカのみをクエリするようにスクリプトを構成します。
22
Amazon Aurora MySQL とマルチ AZ Aurora レプリカを本番用に使用する。データベースの複製を使用して、ステージング データベースをオンデマンドで作成します。
23
SQS キューの可視性タイムアウトを、関数タイムアウトとバッチ ウィンドウ タイムアウトの合計よりも大きい値に増やします。
24
AWS Key Management Service (AWS KMS) カスタマー管理キーを作成します。EC2 ロールが暗号化操作に KMS キーを使用できるようにします。暗号化されたデータを Amazon S3 に保存します。
25
各 AZ のパブリックサブネットごとに 1 つずつ、合計 3 つの NAT ゲートウェイを作成します。AZ 内の NAT ゲートウェイに非 VPC トラフィックを転送する各 AZ のプライベート ルート テーブルを作成します。
26
Amazon RDS のデータベースが更新されたときにトリガーされる AWS Lambda 関数を作成して、ターゲットが消費する Amazon Simple Queue Service (Amazon SQS) キューに情報を送信します。
27
HTTPS 機能を使用するように、ウェブサイトの前に Amazon CloudFront を設定します。, 新しいウェブサイトと Amazon S3 バケットを作成します。静的 Web サイト ホスティングを有効にして、S3 バケットに Web サイトをデプロイします。
28
CloudWatch Logs サブスクリプションを設定して、ログを Amazon OpenSearch Service (Amazon Elasticsearch Service) にストリーミングします。
29
両方のリージョンで AWS Firewall Manager をセットアップします。AWS WAF ルールを一元的に設定します。
30
SSL 証明書を AWS Certificate Manager (ACM) にインポートします。ACM からの SSL 証明書を使用する HTTPS リスナーで Application Load Balancer を作成します。
31
Auto Scaling グループを使用して、プライベートサブネットで EC2 インスタンスを起動します。RDS マルチ AZ DB インスタンスをプライベートサブネットにデプロイします。, 2 つのアベイラビリティーゾーンにまたがる 2 つのパブリックサブネット、2 つのプライベートサブネット、および 2 つの NAT ゲートウェイで VPC を構成します。パブリックサブネットに Application Load Balancer をデプロイします。
32
PostgreSQL データベースを Amazon Aurora に移行します。, Amazon Elastic Container Service (Amazon ECS) を使用して、AWS Fargate でホストされるようにウェブ アプリケーションを移行します。
33
Oracle データベースを Amazon RDS Custom for Oracle に移行します。別の AWS リージョンでデータベースのリードレプリカを作成します。
34
進行中のレプリケーション タスクを作成します。, AWS Database Migration Service (AWS DMS) レプリケーション サーバーを作成します。
35
AWS アカウントのルート ユーザーのすべての E メール アドレスを、アラートに応答できる少数の管理者に送信される配布リストとして構成します。AWS Organizations コンソールまたはプログラムで AWS アカウントの代替連絡先を設定します。
36
S3 バケット間の S3 レプリケーションを設定します。イベント通知を Amazon EventBridge (Amazon CloudWatch Events) に送信するように分析 S3 バケットを設定します。EventBridge (CloudWatch イベント) で ObjectCreated ルールを構成します。ルールのターゲットとして Lambda および SageMaker パイプラインを設定します。
37
アプリケーション スタックを単一の AWS リージョンにデプロイします。Amazon CloudFront を使用して、ALB をオリジンとして指定することにより、すべての静的コンテンツと動的コンテンツを提供します。
38
リクエストを Network Load Balancer に転送するように AWS Global Accelerator を設定します。EC2 Auto Scaling グループ内のアプリケーションに Amazon EC2 インスタンスを使用します。
39
可能であれば、Amazon CloudWatch 複合アラームを作成します。
40
90 日後にオブジェクトを S3 Standard から S3 Standard-Infrequent Access (S3 Standard-1A) に移動する S3 ライフサイクル ポリシーを実装します。
41
Amazon CloudFront をデプロイして、S3 バケットを CloudFront エッジ サーバーに接続します。
42
1 回限りのクエリには Amazon Athena を使用します。Amazon QuickSight を使用して KPI のダッシュボードを作成します。, AWS Lake Formation の設計図を使用して、データ レイクに取り込むことができるデータを特定します。AWS Glue を使用してソースをクロールし、データを抽出して、データを Apache Parquet 形式で Amazon S3 にロードします。
43
DB クラスターの Amazon CloudWatch Logs エクスポートを設定します。, AWS Backup を使用してバックアップを取得し、バックアップを 5 年間保持します。
44
JSON ドキュメントを Amazon S3 バケットに配置します。S3 バケットに到着したドキュメントを処理する Python コードを実行する AWS Lambda 関数を作成します。結果を Amazon Aurora DB クラスターに保存します。
45
送信者とプロセッサのアプリケーションを Amazon Simple Queue Service (Amazon SQS) キューと統合します。処理に失敗したメッセージを収集するために配信不能キューを構成します。
46
S3 バケットの前に Amazon CloudFront ウェブディストリビューションをデプロイします。
47
Auto Scaling グループを変更して、2 つのアベイラビリティーゾーンのそれぞれで 3 つのインスタンスを使用するようにします。
48
AWS バックアップを使用して、EC2 バックアップと RDS バックアップを別のリージョンにコピーします。
49
NLB で AWS Shield Advanced を使用する。, AWS WAF を使用して Amazon API Gateway を保護します。
50
Amazon S3 で静的コンテンツをホストする。Amazon API Gateway と AWS Lambda を使用して動的コンテンツをホストします。データベースのオンデマンド容量で Amazon DynamoDB を使用します。ウェブサイトのコンテンツを配信するように Amazon CloudFront を設定します。
51
マルチ AZ モードで Amazon RDS DB インスタンスを作成します。, 動的アプリケーション負荷を処理するために、Fargate 起動タイプで Amazon Elastic Container Service (Amazon ECS) クラスターを作成します。
52
AWS Transfer Family を使用して、公的にアクセス可能なエンドポイントを持つ SFTP 対応サーバーを設定します。S3 データレイクを宛先として選択します。
53
ウェブアプリケーションを AWS Elastic Beanstalk 環境にデプロイします。URL スワッピングを使用して、機能テストのために複数の Elastic Beanstalk 環境を切り替えます。
54
リードレプリカを作成します。レポート クエリを読み取りレプリカに移動します。
55
EC2 インスタンスを Auto Scaling グループに移動します。メッセージを Amazon Simple Queue Service (Amazon SQS) キューに送信するように注文システムを設定します。キューからのメッセージを消費するように EC2 インスタンスを構成します。
56
マルチ AZ 配置の .NET プラットフォームを使用して、AWS Elastic Beanstalk でアプリケーションを再ホストします。, AWS Database Migration Service (AWS DMS) を使用して、マルチ AZ 配置で Oracle データベースから Amazon RDS 上の Oracle に移行します。
57
API Gateway で Amazon Cognito ユーザープールオーソライザーを設定して、Amazon Cognito が各リクエストを検証できるようにします。
58
Amazon Pinpoint ジャーニーを構築する。分析とアーカイブのためにイベントを Amazon Kinesis データストリームに送信するように Amazon Pinpoint を設定します。
59
会議の招待状を送信するアプリケーションの Auto Scaling グループを追加します。SQS キューの深さに基づいてスケーリングするように Auto Scaling グループを設定します。
60
AWS Lake Formation を使用してデータ レイクを作成する。Amazon RDS への AWS Glue JDBC 接続を作成します。Lake Formation に S3 バケットを登録します。Lake Formation アクセス制御を使用してアクセスを制限します。
61
プライベート Amazon S3 バケットを作成します。S3 バケット ポリシーを使用して、CloudFront オリジン アクセス ID (OAI) からのアクセスを許可します。AWS CLI を使用してウェブサイトのコンテンツをアップロードします。
62
CreateImage API 呼び出し用の Amazon EventBridge (Amazon CloudWatch Events) ルールを作成します。CreateImage API 呼び出しが検出されたときにアラートを送信するように、ターゲットを Amazon Simple Notification Service (Amazon SNS) トピックとして設定します。
63
EC2 インスタンスが配置されているサブネットに、Amazon S3 のインターフェイス VPC エンドポイントを作成します。リソース ポリシーを S3 バケットにアタッチして、EC2 インスタンスの IAM ロールのみにアクセスを許可します。
64
2 つの Amazon Simple Queue Service (Amazon SQS) キューをプロビジョニングします。1 つは注文の収集用、もう 1 つは注文のフルフィルメント用です。それぞれのキューをポーリングするように EC2 インスタンスを構成します。インスタンスごとのバックログの計算に基づいてメトリックを作成します。このメトリクスに基づいて Auto Scaling グループをスケーリングします。
65
AWS Resource Groups Tag Editor を使用してクエリを実行し、アプリケーション タグを使用してリソースをグローバルにレポートします。
66
AWS Snowball デバイスを注文してデータを転送します。ライフサイクル ポリシーを使用して、ファイルを Amazon S3 Glacier Deep Archive に移行します。
67
S3 バケットのデフォルトの暗号化設定をオンにします。S3 インベントリ機能を使用して、暗号化されていないオブジェクトをリストする .csv ファイルを作成します。copy コマンドを使用してこれらのオブジェクトを暗号化する S3 バッチ オペレーション ジョブを実行します。
68
ソース 0.0.0.0/0 からの TCP ポート 443 を許可するルールでセキュリティ グループを作成します。, ネットワーク ACL を更新して、ソース 0.0.0.0/0 からのインバウンド TCP ポート 443 と宛先 0.0.0.0/0 へのアウトバウンド TCP ポート 32768-65535 を許可します。
69
AWS Lambda 関数
70
会社のアカウントに IAM ロールを作成して、ベンダーの IAM ロールへのアクセスを委任します。ベンダーが必要とするアクセス許可のロールに適切な IAM ポリシーをアタッチします。
71
EKS ポッドに十分な権限を持つ IAM ロールをアタッチします。, DynamoDB の VPC エンドポイントを作成します。
72
Amazon Route 53 多値回答ルーティング ポリシーを作成します。, 4 つの EC2 インスタンスを起動します。1 つのアベイラビリティーゾーンで 2 つのインスタンス、別のアベイラビリティーゾーンで 2 つのインスタンスです。
73
AWS Glue を使用して、Amazon S3 で生データを処理します。, Amazon API Gateway を使用して、生データを Amazon Kinesis データストリームに送信します。データストリームをソースとして使用してデータを Amazon S3 に配信するように Amazon Kinesis Data Firehose を設定します。
74
S3 ライフサイクル ポリシーを構成して、現在のバージョンだけでなく以前のバージョンも削除します。
75
データベースを Aurora MySQL 用の Amazon Aurora Serverless に移行します。
76
2 つの NAT インスタンスを削除し、異なるアベイラビリティーゾーンにある 2 つの NAT ゲートウェイに置き換えます。
77
VPC A と VPC B の間に VPC ピアリング接続を設定します。
78
VPC フロー ログを Amazon CloudWatch Logs に発行します。必要なメトリック フィルターを作成します。アラームが ALARM 状態になったときの通知アクションを使用して、Amazon CloudWatch メトリクス アラームを作成します。
79
root ユーザーが強力なパスワードを使用していることを確認してください。, root ユーザーに対して多要素認証を有効にします。
80
AWS Key Management Service (AWS KMS) を使用して、保管中の EBS ボリュームと Aurora データベース ストレージを暗号化します。AWS Certificate Manager (ACM) 証明書を ALB にアタッチして、転送中のデータを暗号化します。
81
メモリ最適化レプリケーション インスタンスを使用して、AWS Database Migration Service (AWS DMS) で AWS Schema Conversion Tool を使用します。全ロードと変更データ キャプチャ (CDC) のレプリケーション タスクとテーブル マッピングを作成して、すべてのテーブルを選択します。
82
フロントエンド層とアプリケーション層に、負荷分散されたマルチ AZ AWS Elastic Beanstalk 環境を使用します。データベースを Amazon RDS マルチ AZ DB インスタンスに移動します。Amazon S3 を使用して、ユーザーの画像を保存および提供します。
83
VPC-A と VPC-B の間に VPC ピアリング接続をセットアップします。
84
AWS Budgets を使用して、各アカウントのコスト予算を作成します。期間を毎月に設定します。スコープを EC2 インスタンスに設定します。予算のアラートしきい値を設定します。しきい値を超えたときに通知を受け取るように Amazon Simple Notification Service (Amazon SNS) トピックを設定します。
85
データ ウェアハウスと同じ AWS リージョンで可視化ツールをホストし、同じリージョン内の場所で Direct Connect 接続を介してアクセスします。
86
PostgreSQL データベースを Amazon RDS for PostgreSQL DB インスタンスに移行します。別のリージョンにリードレプリカを作成します。
87
複数値ルーティング ポリシー
88
各クリニックのオンプレミスに AWS Storage Gateway ファイルゲートウェイを仮想マシン (VM) としてデプロイする
89
別のアベイラビリティーゾーンにあるリードレプリカを使用して、データベースを Amazon Aurora に移動します。EC2 インスタンスから Amazon Machine Image (AMI) を作成します。2 つのアベイラビリティーゾーンで Application Load Balancer を構成します。2 つのアベイラビリティーゾーンで AMI を使用する Auto Scaling グループをアタッチします。
90
開発環境の Auto Scaling グループの EC2 インスタンスの最大数を減らします。
91
各アベイラビリティーゾーンにパブリックサブネットを作成します。パブリックサブネットを ALB に関連付けます。プライベート サブネットへのルートを使用して、パブリック サブネットのルート テーブルを更新します。
92
ソース DB インスタンスで実行時間の長いトランザクションを完了できるようにする。, バックアップ保持期間を 0 以外の値に設定して、ソース インスタンスで自動バックアップを有効にします。
93
着信リクエストを Amazon Simple Queue Service (Amazon SQS) にルーティングします。キューのサイズに基づいて EC2 Auto Scaling グループを構成します。キューから読み取るようにソフトウェアを更新します。
94
Amazon S3 をターゲットとして使用する。S3 ライフサイクル ポリシーを有効にして、90 日後にログを S3 Standard-Infrequent Access (S3 Standard-IA) に移行します。
95
NAT ゲートウェイを作成し、パブリックサブネットに配置します。デフォルト ルートとして NAT ゲートウェイを使用するようにプライベート サブネット ルート テーブルを設定します。
96
Amazon エラスティック ファイル システム (Amazon EFS)
97
セキュリティ グループ ID をソースまたは宛先として使用して、セキュリティ グループ ルールを作成します。
98
注文をデータベースに保存します。注文番号を含むメッセージを Amazon Simple Queue Service (Amazon SQS) FIFO キューに送信します。メッセージを取得して注文を処理するように支払いサービスを設定します。メッセージをキューから削除します。
99
Amazon CloudWatch メトリクス ストリームを使用して、EC2 Auto Scaling ステータス データを Amazon Kinesis Data Firehose に送信します。データを Amazon S3 に保存します。
100
AWS Glue 抽出、変換、ロード (ETL) ジョブを作成して、.csv ファイルを Parquet 形式に変換し、出力ファイルを S3 バケットに配置します。S3 PUT イベントごとに AWS Lambda 関数を作成して、ETL ジョブを呼び出します。
SAA-C03 No2
SAA-C03 No2
Tatsuya O · 157問 · 3年前SAA-C03 No2
SAA-C03 No2
157問 • 3年前LPIC 101-500 Part1
LPIC 101-500 Part1
Tatsuya O · 80問 · 2年前LPIC 101-500 Part1
LPIC 101-500 Part1
80問 • 2年前LPIC 101-500 Part2
LPIC 101-500 Part2
Tatsuya O · 12回閲覧 · 40問 · 2年前LPIC 101-500 Part2
LPIC 101-500 Part2
12回閲覧 • 40問 • 2年前LPIC 102 Part1
LPIC 102 Part1
Tatsuya O · 65問 · 2年前LPIC 102 Part1
LPIC 102 Part1
65問 • 2年前LPIC 102 Part2
LPIC 102 Part2
Tatsuya O · 14回閲覧 · 55問 · 2年前LPIC 102 Part2
LPIC 102 Part2
14回閲覧 • 55問 • 2年前LPIC 201-450
LPIC 201-450
Tatsuya O · 60問 · 2年前LPIC 201-450
LPIC 201-450
60問 • 2年前問題一覧
1
認証情報をシークレットとして AWS Secrets Manager に保存します。必要なリージョンにマルチリージョン シークレット レプリケーションを使用します。スケジュールに従ってシークレットをローテーションするように Secrets Manager を設定します。
2
Amazon QuickSight で分析を作成します。すべてのデータ ソースを接続し、新しいデータセットを作成します。ダッシュボードを公開してデータを視覚化します。ダッシュボードを適切なユーザーおよびグループと共有します。
3
Cost Explorer の詳細なフィルタリング機能を使用して、インスタンス タイプに基づいて EC2 コストの詳細な分析を実行します。
4
AWS SSO コンソールから AWS Single Sign-On (AWS SSO) を有効にします。AWS Directory Service for Microsoft Active Directory を使用して、企業の自己管理型 Microsoft Active Directory を AWS SSO に接続するための双方向のフォレスト信頼を作成します。
5
Network Load Balancer (NLB) と関連するターゲット グループをデプロイします。ターゲット グループを Auto Scaling グループに関連付けます。各リージョンで NLB を AWS Global Accelerator エンドポイントとして使用します。
6
顧客管理のマルチリージョン KMS キーを作成します。各リージョンに S3 バケットを作成します。S3 バケット間のレプリケーションを構成します。クライアント側の暗号化で KMS キーを使用するようにアプリケーションを構成します。
7
S3 バケットの前に Amazon CloudFront ディストリビューションを追加します。CloudFront ディストリビューションを指すように Route 53 エントリを編集します。
8
カタログを Amazon Elastic File System (Amazon EFS) ファイル システムに移動します。
9
Amazon S3 Intelligent-Tiering に個々のファイルを保存します。S3 ライフサイクル ポリシーを使用して、1 年後にファイルを S3 Glacier Flexible Retrieval に移動します。Amazon Athena を使用して、Amazon S3 にあるファイルをクエリして取得します。S3 Glacier Select を使用して、S3 Glacier にあるファイルをクエリして取得します。
10
Amazon Simple Email Service (Amazon SES) を使用してデータをフォーマットし、レポートを E メールで送信します。, AWS Lambda 関数を呼び出してアプリケーションの API にデータをクエリする Amazon EventBridge (Amazon CloudWatch Events) のスケジュールされたイベントを作成します。
11
マルチ AZ Auto Scaling グループ内の Amazon EC2 インスタンスにアプリケーションを移行します。ストレージには Amazon Elastic File System (Amazon EFS) を使用します。
12
Regional API Gateway エンドポイントを作成します。API Gateway エンドポイントを会社のドメイン名に関連付けます。会社のドメイン名に関連付けられたパブリック証明書を同じリージョンの AWS Certificate Manager (ACM) にインポートします。証明書を API Gateway エンドポイントに添付します。トラフィックを API Gateway エンドポイントにルーティングするように Route 53 を構成します。
13
Amazon Kinesis Data Streams からデータを収集します。Amazon Kinesis Data Firehose を使用して、データを Amazon S3 データレイクに送信します。分析のために Amazon Redshift にデータをロードします。
14
.pdf ファイルを Amazon S3 に保存します。AWS Lambda 関数を呼び出してファイルを .jpg 形式に変換し、Amazon S3 に保存するように S3 PUT イベントを設定します。
15
AWS で Windows ファイルサーバー用の Amazon FSx をデプロイして設定します。オンプレミスで Amazon FSx File Gateway をデプロイして設定します。オンプレミスのファイル データを FSx ファイル ゲートウェイに移動します。FSx for Windows File Server on AWS を使用するようにクラウド ワークロードを構成します。FSx ファイル ゲートウェイを使用するようにオンプレミスのワークロードを構成します。
16
踏み台ホストの現在のセキュリティ グループを、会社の外部 IP 範囲からのインバウンド アクセスのみを許可するグループに置き換えます。, アプリケーション インスタンスの現在のセキュリティ グループを、踏み台ホストのプライベート IP アドレスからのみインバウンド SSH アクセスを許可するグループに置き換えます。
17
AWS Direct Connect を介した AWS DataSync
18
AWS Backup を使用して、テーブルのバックアップ スケジュールと保持ポリシーを作成します。
19
オンプレミス サーバーを指すカスタムオリジンで Amazon CloudFront を使用する。
20
データベース ユーザーの認証情報を AWS Secrets Manager に保存します。ウェブサーバーが AWS Secrets Manager にアクセスできるようにするために必要な IAM アクセス許可を付与します。
21
データベースの読み取りレプリカを作成します。読み取りレプリカのみをクエリするようにスクリプトを構成します。
22
Amazon Aurora MySQL とマルチ AZ Aurora レプリカを本番用に使用する。データベースの複製を使用して、ステージング データベースをオンデマンドで作成します。
23
SQS キューの可視性タイムアウトを、関数タイムアウトとバッチ ウィンドウ タイムアウトの合計よりも大きい値に増やします。
24
AWS Key Management Service (AWS KMS) カスタマー管理キーを作成します。EC2 ロールが暗号化操作に KMS キーを使用できるようにします。暗号化されたデータを Amazon S3 に保存します。
25
各 AZ のパブリックサブネットごとに 1 つずつ、合計 3 つの NAT ゲートウェイを作成します。AZ 内の NAT ゲートウェイに非 VPC トラフィックを転送する各 AZ のプライベート ルート テーブルを作成します。
26
Amazon RDS のデータベースが更新されたときにトリガーされる AWS Lambda 関数を作成して、ターゲットが消費する Amazon Simple Queue Service (Amazon SQS) キューに情報を送信します。
27
HTTPS 機能を使用するように、ウェブサイトの前に Amazon CloudFront を設定します。, 新しいウェブサイトと Amazon S3 バケットを作成します。静的 Web サイト ホスティングを有効にして、S3 バケットに Web サイトをデプロイします。
28
CloudWatch Logs サブスクリプションを設定して、ログを Amazon OpenSearch Service (Amazon Elasticsearch Service) にストリーミングします。
29
両方のリージョンで AWS Firewall Manager をセットアップします。AWS WAF ルールを一元的に設定します。
30
SSL 証明書を AWS Certificate Manager (ACM) にインポートします。ACM からの SSL 証明書を使用する HTTPS リスナーで Application Load Balancer を作成します。
31
Auto Scaling グループを使用して、プライベートサブネットで EC2 インスタンスを起動します。RDS マルチ AZ DB インスタンスをプライベートサブネットにデプロイします。, 2 つのアベイラビリティーゾーンにまたがる 2 つのパブリックサブネット、2 つのプライベートサブネット、および 2 つの NAT ゲートウェイで VPC を構成します。パブリックサブネットに Application Load Balancer をデプロイします。
32
PostgreSQL データベースを Amazon Aurora に移行します。, Amazon Elastic Container Service (Amazon ECS) を使用して、AWS Fargate でホストされるようにウェブ アプリケーションを移行します。
33
Oracle データベースを Amazon RDS Custom for Oracle に移行します。別の AWS リージョンでデータベースのリードレプリカを作成します。
34
進行中のレプリケーション タスクを作成します。, AWS Database Migration Service (AWS DMS) レプリケーション サーバーを作成します。
35
AWS アカウントのルート ユーザーのすべての E メール アドレスを、アラートに応答できる少数の管理者に送信される配布リストとして構成します。AWS Organizations コンソールまたはプログラムで AWS アカウントの代替連絡先を設定します。
36
S3 バケット間の S3 レプリケーションを設定します。イベント通知を Amazon EventBridge (Amazon CloudWatch Events) に送信するように分析 S3 バケットを設定します。EventBridge (CloudWatch イベント) で ObjectCreated ルールを構成します。ルールのターゲットとして Lambda および SageMaker パイプラインを設定します。
37
アプリケーション スタックを単一の AWS リージョンにデプロイします。Amazon CloudFront を使用して、ALB をオリジンとして指定することにより、すべての静的コンテンツと動的コンテンツを提供します。
38
リクエストを Network Load Balancer に転送するように AWS Global Accelerator を設定します。EC2 Auto Scaling グループ内のアプリケーションに Amazon EC2 インスタンスを使用します。
39
可能であれば、Amazon CloudWatch 複合アラームを作成します。
40
90 日後にオブジェクトを S3 Standard から S3 Standard-Infrequent Access (S3 Standard-1A) に移動する S3 ライフサイクル ポリシーを実装します。
41
Amazon CloudFront をデプロイして、S3 バケットを CloudFront エッジ サーバーに接続します。
42
1 回限りのクエリには Amazon Athena を使用します。Amazon QuickSight を使用して KPI のダッシュボードを作成します。, AWS Lake Formation の設計図を使用して、データ レイクに取り込むことができるデータを特定します。AWS Glue を使用してソースをクロールし、データを抽出して、データを Apache Parquet 形式で Amazon S3 にロードします。
43
DB クラスターの Amazon CloudWatch Logs エクスポートを設定します。, AWS Backup を使用してバックアップを取得し、バックアップを 5 年間保持します。
44
JSON ドキュメントを Amazon S3 バケットに配置します。S3 バケットに到着したドキュメントを処理する Python コードを実行する AWS Lambda 関数を作成します。結果を Amazon Aurora DB クラスターに保存します。
45
送信者とプロセッサのアプリケーションを Amazon Simple Queue Service (Amazon SQS) キューと統合します。処理に失敗したメッセージを収集するために配信不能キューを構成します。
46
S3 バケットの前に Amazon CloudFront ウェブディストリビューションをデプロイします。
47
Auto Scaling グループを変更して、2 つのアベイラビリティーゾーンのそれぞれで 3 つのインスタンスを使用するようにします。
48
AWS バックアップを使用して、EC2 バックアップと RDS バックアップを別のリージョンにコピーします。
49
NLB で AWS Shield Advanced を使用する。, AWS WAF を使用して Amazon API Gateway を保護します。
50
Amazon S3 で静的コンテンツをホストする。Amazon API Gateway と AWS Lambda を使用して動的コンテンツをホストします。データベースのオンデマンド容量で Amazon DynamoDB を使用します。ウェブサイトのコンテンツを配信するように Amazon CloudFront を設定します。
51
マルチ AZ モードで Amazon RDS DB インスタンスを作成します。, 動的アプリケーション負荷を処理するために、Fargate 起動タイプで Amazon Elastic Container Service (Amazon ECS) クラスターを作成します。
52
AWS Transfer Family を使用して、公的にアクセス可能なエンドポイントを持つ SFTP 対応サーバーを設定します。S3 データレイクを宛先として選択します。
53
ウェブアプリケーションを AWS Elastic Beanstalk 環境にデプロイします。URL スワッピングを使用して、機能テストのために複数の Elastic Beanstalk 環境を切り替えます。
54
リードレプリカを作成します。レポート クエリを読み取りレプリカに移動します。
55
EC2 インスタンスを Auto Scaling グループに移動します。メッセージを Amazon Simple Queue Service (Amazon SQS) キューに送信するように注文システムを設定します。キューからのメッセージを消費するように EC2 インスタンスを構成します。
56
マルチ AZ 配置の .NET プラットフォームを使用して、AWS Elastic Beanstalk でアプリケーションを再ホストします。, AWS Database Migration Service (AWS DMS) を使用して、マルチ AZ 配置で Oracle データベースから Amazon RDS 上の Oracle に移行します。
57
API Gateway で Amazon Cognito ユーザープールオーソライザーを設定して、Amazon Cognito が各リクエストを検証できるようにします。
58
Amazon Pinpoint ジャーニーを構築する。分析とアーカイブのためにイベントを Amazon Kinesis データストリームに送信するように Amazon Pinpoint を設定します。
59
会議の招待状を送信するアプリケーションの Auto Scaling グループを追加します。SQS キューの深さに基づいてスケーリングするように Auto Scaling グループを設定します。
60
AWS Lake Formation を使用してデータ レイクを作成する。Amazon RDS への AWS Glue JDBC 接続を作成します。Lake Formation に S3 バケットを登録します。Lake Formation アクセス制御を使用してアクセスを制限します。
61
プライベート Amazon S3 バケットを作成します。S3 バケット ポリシーを使用して、CloudFront オリジン アクセス ID (OAI) からのアクセスを許可します。AWS CLI を使用してウェブサイトのコンテンツをアップロードします。
62
CreateImage API 呼び出し用の Amazon EventBridge (Amazon CloudWatch Events) ルールを作成します。CreateImage API 呼び出しが検出されたときにアラートを送信するように、ターゲットを Amazon Simple Notification Service (Amazon SNS) トピックとして設定します。
63
EC2 インスタンスが配置されているサブネットに、Amazon S3 のインターフェイス VPC エンドポイントを作成します。リソース ポリシーを S3 バケットにアタッチして、EC2 インスタンスの IAM ロールのみにアクセスを許可します。
64
2 つの Amazon Simple Queue Service (Amazon SQS) キューをプロビジョニングします。1 つは注文の収集用、もう 1 つは注文のフルフィルメント用です。それぞれのキューをポーリングするように EC2 インスタンスを構成します。インスタンスごとのバックログの計算に基づいてメトリックを作成します。このメトリクスに基づいて Auto Scaling グループをスケーリングします。
65
AWS Resource Groups Tag Editor を使用してクエリを実行し、アプリケーション タグを使用してリソースをグローバルにレポートします。
66
AWS Snowball デバイスを注文してデータを転送します。ライフサイクル ポリシーを使用して、ファイルを Amazon S3 Glacier Deep Archive に移行します。
67
S3 バケットのデフォルトの暗号化設定をオンにします。S3 インベントリ機能を使用して、暗号化されていないオブジェクトをリストする .csv ファイルを作成します。copy コマンドを使用してこれらのオブジェクトを暗号化する S3 バッチ オペレーション ジョブを実行します。
68
ソース 0.0.0.0/0 からの TCP ポート 443 を許可するルールでセキュリティ グループを作成します。, ネットワーク ACL を更新して、ソース 0.0.0.0/0 からのインバウンド TCP ポート 443 と宛先 0.0.0.0/0 へのアウトバウンド TCP ポート 32768-65535 を許可します。
69
AWS Lambda 関数
70
会社のアカウントに IAM ロールを作成して、ベンダーの IAM ロールへのアクセスを委任します。ベンダーが必要とするアクセス許可のロールに適切な IAM ポリシーをアタッチします。
71
EKS ポッドに十分な権限を持つ IAM ロールをアタッチします。, DynamoDB の VPC エンドポイントを作成します。
72
Amazon Route 53 多値回答ルーティング ポリシーを作成します。, 4 つの EC2 インスタンスを起動します。1 つのアベイラビリティーゾーンで 2 つのインスタンス、別のアベイラビリティーゾーンで 2 つのインスタンスです。
73
AWS Glue を使用して、Amazon S3 で生データを処理します。, Amazon API Gateway を使用して、生データを Amazon Kinesis データストリームに送信します。データストリームをソースとして使用してデータを Amazon S3 に配信するように Amazon Kinesis Data Firehose を設定します。
74
S3 ライフサイクル ポリシーを構成して、現在のバージョンだけでなく以前のバージョンも削除します。
75
データベースを Aurora MySQL 用の Amazon Aurora Serverless に移行します。
76
2 つの NAT インスタンスを削除し、異なるアベイラビリティーゾーンにある 2 つの NAT ゲートウェイに置き換えます。
77
VPC A と VPC B の間に VPC ピアリング接続を設定します。
78
VPC フロー ログを Amazon CloudWatch Logs に発行します。必要なメトリック フィルターを作成します。アラームが ALARM 状態になったときの通知アクションを使用して、Amazon CloudWatch メトリクス アラームを作成します。
79
root ユーザーが強力なパスワードを使用していることを確認してください。, root ユーザーに対して多要素認証を有効にします。
80
AWS Key Management Service (AWS KMS) を使用して、保管中の EBS ボリュームと Aurora データベース ストレージを暗号化します。AWS Certificate Manager (ACM) 証明書を ALB にアタッチして、転送中のデータを暗号化します。
81
メモリ最適化レプリケーション インスタンスを使用して、AWS Database Migration Service (AWS DMS) で AWS Schema Conversion Tool を使用します。全ロードと変更データ キャプチャ (CDC) のレプリケーション タスクとテーブル マッピングを作成して、すべてのテーブルを選択します。
82
フロントエンド層とアプリケーション層に、負荷分散されたマルチ AZ AWS Elastic Beanstalk 環境を使用します。データベースを Amazon RDS マルチ AZ DB インスタンスに移動します。Amazon S3 を使用して、ユーザーの画像を保存および提供します。
83
VPC-A と VPC-B の間に VPC ピアリング接続をセットアップします。
84
AWS Budgets を使用して、各アカウントのコスト予算を作成します。期間を毎月に設定します。スコープを EC2 インスタンスに設定します。予算のアラートしきい値を設定します。しきい値を超えたときに通知を受け取るように Amazon Simple Notification Service (Amazon SNS) トピックを設定します。
85
データ ウェアハウスと同じ AWS リージョンで可視化ツールをホストし、同じリージョン内の場所で Direct Connect 接続を介してアクセスします。
86
PostgreSQL データベースを Amazon RDS for PostgreSQL DB インスタンスに移行します。別のリージョンにリードレプリカを作成します。
87
複数値ルーティング ポリシー
88
各クリニックのオンプレミスに AWS Storage Gateway ファイルゲートウェイを仮想マシン (VM) としてデプロイする
89
別のアベイラビリティーゾーンにあるリードレプリカを使用して、データベースを Amazon Aurora に移動します。EC2 インスタンスから Amazon Machine Image (AMI) を作成します。2 つのアベイラビリティーゾーンで Application Load Balancer を構成します。2 つのアベイラビリティーゾーンで AMI を使用する Auto Scaling グループをアタッチします。
90
開発環境の Auto Scaling グループの EC2 インスタンスの最大数を減らします。
91
各アベイラビリティーゾーンにパブリックサブネットを作成します。パブリックサブネットを ALB に関連付けます。プライベート サブネットへのルートを使用して、パブリック サブネットのルート テーブルを更新します。
92
ソース DB インスタンスで実行時間の長いトランザクションを完了できるようにする。, バックアップ保持期間を 0 以外の値に設定して、ソース インスタンスで自動バックアップを有効にします。
93
着信リクエストを Amazon Simple Queue Service (Amazon SQS) にルーティングします。キューのサイズに基づいて EC2 Auto Scaling グループを構成します。キューから読み取るようにソフトウェアを更新します。
94
Amazon S3 をターゲットとして使用する。S3 ライフサイクル ポリシーを有効にして、90 日後にログを S3 Standard-Infrequent Access (S3 Standard-IA) に移行します。
95
NAT ゲートウェイを作成し、パブリックサブネットに配置します。デフォルト ルートとして NAT ゲートウェイを使用するようにプライベート サブネット ルート テーブルを設定します。
96
Amazon エラスティック ファイル システム (Amazon EFS)
97
セキュリティ グループ ID をソースまたは宛先として使用して、セキュリティ グループ ルールを作成します。
98
注文をデータベースに保存します。注文番号を含むメッセージを Amazon Simple Queue Service (Amazon SQS) FIFO キューに送信します。メッセージを取得して注文を処理するように支払いサービスを設定します。メッセージをキューから削除します。
99
Amazon CloudWatch メトリクス ストリームを使用して、EC2 Auto Scaling ステータス データを Amazon Kinesis Data Firehose に送信します。データを Amazon S3 に保存します。
100
AWS Glue 抽出、変換、ロード (ETL) ジョブを作成して、.csv ファイルを Parquet 形式に変換し、出力ファイルを S3 バケットに配置します。S3 PUT イベントごとに AWS Lambda 関数を作成して、ETL ジョブを呼び出します。