問題一覧
1
S3バケット内のファイルを使用してGuardDutyの信頼できるIPリストと脅威リストを更新し、更新されたリストを再アクティブ化するLambda関数を開発します。S3イベント通知をAmazon EventBridgeに設定し、ファイルが更新されたときにLambda関数をトリガーするEventBridgeルールを作成します。, GuardDuty内で、S3内の対応するファイルをデータソースとして使用し、脅威リストと信頼できるIPリストを設定します。両方のリストをアクティブ化して、脅威検出機能を強化します。
2
AWS Elastic Beanstalkを使用して、ロードバランシングと自動スケーリング環境でPythonベースのLMSをホストします。Multi-AZデプロイメントを使用したAmazon RDS PostgreSQLデータベースを、Elastic Beanstalkスタックとは別に構成します。アプリケーションログを120日間の保持期間でAmazon CloudWatch Logsにストリーミングするようにログオプションを構成します。
3
アーキテクチャを再設計し、Lambdaで直接ストリームを消費する代わりに、Amazon Kinesis Adapterを実装して大規模なリアルタイムストリーミングデータ処理を行います。リスク評価モジュールを再構築して、Amazon Managed Service for Apache Flink Studioを利用するようにします。
4
Elastic Beanstalk環境のデプロイ設定を、イミュータブル環境更新を利用するように設定します。
5
既存のCloudFormationテンプレートを使用して、セカンダリAWSリージョンにアプリケーションスタックをデプロイします。セカンダリリージョンにAmazon RDS リードレプリカを確立し、プライマリS3バケットとセカンダリリージョンの新しいS3バケット間でクロスリージョンレプリケーションを有効にします。フェイルオーバーの際には、RDS リードレプリカをプライマリデータベースに昇格させます。フェイルオーバーシナリオ時に適切なパフォーマンスを確保するため、CloudFormationスタックテンプレートを使用してセカンダリリージョンのAuto Scalingグループのキャパシティを調整します。
6
2つのPatch Groupを異なるタグで作成し、すべてのLinux EC2インスタンスに割り当てます。両方のパッチグループにAWS-AmazonLinux2DefaultPatchBaselineを適用します。重複しない2つのメンテナンスウィンドウを設定し、それぞれ異なるパッチグループに関連付けます。Patch Groupタグを使用して、特定のメンテナンスウィンドウにターゲットを登録します。各メンテナンスウィンドウ内でAWS-RunPatchBaselineドキュメントをタスクとして設定し、パッチ適用プロセスの開始時間を異なる時間に設定します。
7
各Amazon EC2インスタンスに統合されたCloudWatch Logsエージェントをインストールして設定し、自動的にデータをCloudWatch Logsに送信します。CloudWatch Logs Insightsを使用してログデータを分析します。
8
CodeBuildを設定して、ユニットテストと統合テストを自動的に実行します。パイプラインの最後のデプロイアクションの後に、手動承認アクションを追加し、SNSを使用して関連するチームメンバーに通知します。最後に、アプリケーションを次のステージにプッシュするためのデプロイアクションでパイプラインを終了します。
9
EKSコンポーネントログをAmazon CloudWatch Logsにストリーミングします。各コンポーネントログに対してサブスクリプションフィルターを設定し、Lambda関数をサブスクリプションフィードの送信先として指定します。
10
AWS HealthのためのAWS EventBridgeルールを作成します。EC2サービスを選択し、通知を受けたい特定のイベントを選択します。ターゲットをリスク評価チームが購読しているAmazon SNSトピックに設定します。
11
AWS Management Consoleにアクセスし、Auto Scalingグループから発信されるREJECTエントリについてVPCフローログを調査します。Auto Scalingグループのエグレスセキュリティグループルールがサードパーティの市場データプロバイダーへのアウトバウンドトラフィックを許可していることを確認します。
12
AWS Elastic Beanstalkに取引アプリケーション全体をデプロイします。AWS Systems Manager Automationを使用して、必要な金融ライブラリと取引コンポーネントをすべて含むカスタムAMIを作成します。Elastic Beanstalk環境を、複数のアベイラビリティーゾーンに分散されたEC2インスタンスのAuto Scalingグループで設定し、ロードバランサーを前面に配置して受信リクエストを分散させます。Amazon DynamoDB Auto Scalingを有効にし、Amazon Route 53を使用してアプリケーションのDNSレコードをElastic Beanstalkのロードバランサーに向けます。
13
すべてのオンプレミスおよびAWSリソースに統合CloudWatch Logsエージェントをデプロイし、システムおよびアプリケーションログを収集します。集約されたデータを中央アカウント内のAmazon S3バケットに保存します。S3イベントトリガーを設定して、ログ分析と異常検出のためのLambda関数を呼び出します。詳細なログデータ分析にはAmazon Athenaを利用します。
14
IPアドレスの競合を解決するために、IPネットワークを再割り当てします。AWS Organizations内の新しいAWSアカウントにトランジットゲートウェイを確立し、VPCアタッチメントを設定します。AWS Resource Access Manager (RAM)を使用して、組織全体でトランジットゲートウェイを共有します。各部門のVPCにトランジットゲートウェイアタッチメントを作成します。ルーティングテーブルを更新し、宛先を各VPC CIDRブロックに、ターゲットを対応するトランジットゲートウェイアタッチメントに設定する新しいルートを追加します。サービス間通信を容易にするために、各VPCにNetwork Load Balancer (NLB)をデプロイします。
15
Lambda上で関数を作成し、Lambda@Edgeでデプロイします。
16
AWS Systems Manager Automationを使用して修復アクションを実行するカスタムAWS Configルールを設定し、インスタンスの公開アクセス可能なポート22を更新して、大学のメインキャンパスのパブリックIPのみに制限します。, Lambda関数を開発し、CloudWatch EventsとAWS Lambdaと統合して、スケジュールベースで関数を実行し、APIを介してAWS Trusted Advisorをチェックします。結果に基づいて、SNSトピックにメッセージを発行して購読者に警告します。, ポート22がパブリックに開放されていないことを確認するために、セキュリティグループを評価するカスタムAWS Configルールを設定します。非準拠の結果についてSNSトピックに通知を送信するように設定します。
17
AWS CodePipelineで新しいパイプラインを実装し、AWS CodeCommitに新しいコードがプッシュされたときに自動的にトリガーされるソースコードステップを設定します。AWS CodeBuildをビルドステップに使用してテストを自動化し、その後AWS CodeDeployを設定して更新されたLambda関数をデプロイします。デプロイメントには、事前定義されたCodeDeployDefault.LambdaLinear10PercentEvery3Minutes設定オプションを選択します。
18
AWS CloudWatch LogsでSQSのApproximateAgeOfOldestMessageメトリクスとDynamoDBのWriteThrottleEventsメトリクスを分析します。Lambda関数の予約済み同時実行数とDynamoDBテーブルの最大書き込みキャパシティーユニットを増やします。
19
S3バケットポリシーに不適切な権限が含まれています。, EC2インスタンスに関連付けられたIAMロールのアクセス権が誤って設定されています。
20
ローリングアップデートプロセス中に、以下のAuto Scalingプロセスを一時停止します:HealthCheck、ReplaceUnhealthy、AZRebalance、AlarmNotification、ScheduledActions。, AutoScalingRollingUpdateポリシーのMinSuccessfulInstancesPercentプロパティを調整し、少数のインスタンスの起動に失敗した場合でもCloudFormationがスタック全体をロールバックしないようにします。, AutoScalingRollingUpdateポリシーでWaitOnResourceSignalsプロパティをfalseに設定します。
21
CodePipelineの実行モードをQUEUEDに設定します。, 統合テストを実行するCodeBuildプロジェクトを作成します。新しく作成したCodeBuildプロジェクトを使用して、CodePipelineパイプラインにTest-typeアクションを設定します。
22
Amazon RDS Proxyを実装してデータベース接続を管理し、Auroraクラスターのリーダーエンドポイントに接続し、適切な最大接続数制限を設定します。, Lambda関数のコード内に接続プーリングロジックを実装し、プール内の最大データベース接続数を設定します。, Lambda関数の設定を変更し、直接Auroraクラスターのエンドポイントではなく、RDS Proxyのエンドポイントに接続するようにします。
23
単一のAWS CodeCommitリポジトリを設定し、マージされた変更用の開発ブランチを作成します。AWS CodeBuildを構成して、各コミット時に開発ブランチのコードを自動的にビルドしてテストします。リードデベロッパーによって承認されたプルリクエストを使用して、マスターブランチにマージします。AWS CodeDeployを使用してBlue/Greenデプロイメントを実装し、本番環境への更新をロールアウトします。
24
インスタンスを設定して、請求と返金のトランザクション数をカスタムメトリクスとしてCloudWatchに送信します。しきい値を超えた場合にSNSを介して運用チームに警告するCloudWatchアラームを作成します。AWS Management Consoleを使用して、公開されたメトリクスの統計グラフを表示します。
25
GitHubリポジトリにコードがプッシュされたときにAWS CodePipelineをトリガーするように設定します。パイプライン内でCodeBuildを使用してDockerイメージを生成します。ECSクラスターで構成される二次的なApplication Load BalancerターゲットグループにDockerコンテナをデプロイします。プライマリターゲットグループのリスナーポートを二次的なものと交換してデプロイメントを完了します。
26
AWS Systems Managerを使用して、マシンイメージ作成の設定を指定するAutomationドキュメントを作成します。AWS CodePipelineで新しいパイプラインをカスタムアクションで確立し、Amazon EventBridgeと統合してAutomationドキュメントを実行します。必要に応じてAMIビルドプロセスをトリガーし、結果のAMI IDをSystems Manager Parameter Storeに保存します。
27
バケットポリシーを実装して、S3バケットへの未認証アクセスを削除します。CodeBuildプロジェクトのサービスロールを変更して、Amazon S3へのアクセスを提供します。AWS CLIを使用して、データベーススクリプトを安全にダウンロードします。
28
Amazon GuardDutyを有効にします。
29
Amazon SNSトピックのアクセスポリシーを変更して、Amazon Managed Service for Prometheusサービスにsns:Publishとsns:GetTopicAttributesの権限を付与します。, 重要なアラート用のアラートルールを設定し、Amazon Managed Service for Prometheusがアラートマネージャー設定を利用するように構成します。, アラートルールが起動したときにAmazon SNSトピックに通知を送信するようにアラートマネージャーを設定します。
30
AWS Configと、承認されていないAMIから起動されたEC2インスタンスを定期的にチェックするLambda関数を実装します。AWS Systems Manager Automationを使用して修復アクションを設定し、非準拠インスタンスを自動的に終了します。Amazon SNSを使用して、そのような発生について情報セキュリティチームと製品開発チームに通知します。, AWS LambdaをCloudWatch Eventsと併用して、VPC内で実行中のEC2インスタンスの日次スキャンをスケジュールします。関数をプログラムして、未承認のAMIに基づくインスタンスを特定します。Amazon SNSを使用して情報セキュリティチームと製品開発チームに問題を警告し、その後、非準拠のEC2インスタンスを自動的に終了します。
31
AWS Service Catalogを実装し、臨床試験アプリケーション用の承認済みCloudFormationテンプレートを使用して製品を作成します。
32
すべてのEC2インスタンスのディスク容量使用率を監視するAmazon CloudWatchアラームを作成します。ディスク使用率が定義されたしきい値を超えた場合に、ディスククリーンアップスクリプトを実行するAWS Systems Manager Automationタスクをトリガーするように設定します。, すべてのAmazon EC2インスタンスにAmazon CloudWatch エージェントがインストールされ、適切に設定されていることを確認します。
33
ロググループに対してCloudWatch Logs Insightsクエリで集計関数を使用し、特定の失敗コードの総数を見つけます。
34
デフォルトでは、CodeDeployはデプロイメント場所のすべてのファイルをクリアし、自動ロールバックは古いリビジョンファイルを最初から再デプロイします。今後のデプロイメントでは、'Retain the content'オプションを選択して、古いアプリケーションリビジョンに含まれるファイルのみがデプロイされ、既存のコンテンツが保持されるようにする必要があります。
35
関連するAPI Gatewayステージに対してAPIキャッシングを有効にし、デフォルトのノード構成でDynamoDB Accelerator (DAX)クラスターをセットアップします。
36
S3バケットからプロキシIPアドレスのリストを読み取るLambda関数を作成します。この関数をプログラムして、ALBセキュリティグループを更新し、指定されたIPアドレスからのHTTPSリクエストのみを許可するようにします。Amazon S3 Event Notificationを利用して、JSONファイルが更新されたときに自動的にLambda関数をトリガーします。
37
Storage GatewayのRefreshCacheコマンドを実行するAWS Lambda関数を開発し、この関数をトリガーするために毎晩Amazon EventBridgeイベントを設定します。
38
設定変更トリガーを持つAWS Configルールを実装し、S3バケット設定の変更を識別し、Lambda関数を含むAWS Systems Manager Automationドキュメントを呼び出して変更を元に戻します。
39
ローカルセカンダリインデックスを持つ新しいDynamoDBテーブルを作成します。取引プラットフォームを修正して、検索にQuery操作を使用し、LastCommentTimestamp属性をソートキーとして利用します。
40
EC2インスタンスのデプロイメントにAuto Scaling groupを使用し、Instance Terminateのライフサイクルフックを組み込んだCloudFormationテンプレートを設計します。150のライセンスキーをDynamoDBテーブルに保存します。インスタンス起動時にDynamoDBテーブルから利用可能なライセンスを取得するUser Dataスクリプトを実装します。インスタンスが終了する際にDynamoDBのライセンス割り当てを更新するためにライフサイクルフックを利用します。
41
開発者用とシニアシステムアーキテクト用の2つのIAMグループを作成し、両方にAWSCodeCommitPowerUserポリシーを適用します。開発者グループには、CodeCommitリポジトリのmainブランチに対するPush、Delete、Mergeアクションを拒否する追加のIAMポリシーを適用します。
42
アプリケーションのセキュリティとコンプライアンスを強化するために、Amazon Inspectorを自動セキュリティ評価に実装します。3つのアベイラビリティゾーンにまたがるEC2インスタンスのAuto Scalingグループを展開し、トラフィック分散のためにApplication Load Balancerを前面に配置します。データベース層にはAmazon Auroraを使用します。Amazon Route 53にルートドメインのAliasレコードを設定し、ロードバランサーを指すようにします。
43
すべてのAWS CodePipelineパイプラインを監視し、承認アクションが拒否されたり失敗したりした場合に通知をトリガーします。
44
CloudFrontディストリビューションでオリジンサーバーへのエンドツーエンドのHTTPS接続を実装し、フィールドレベルの暗号化を利用します。オリジンにCache-Control max-ageディレクティブをオブジェクトに追加するよう設定し、max-ageに実用的な最長の値を設定してキャッシュヒット率を向上させます。
45
市場調査部門のAWSアカウントでiam:CreateUserアクションを拒否するAWS サービスコントロールポリシー (SCP)を実装します。
46
CloudFormationスタックの削除が失敗するのは、S3バケットにまだ患者データが含まれているためです。これを解決するには、カスタムリソースのLambda関数のコードを変更し、スタックが削除対象とマークされた場合にバケット内のすべてのデータを安全に消去するようにします。
47
AWS Systems Manager Parameter Storeを利用してAPIキーをSecure Stringパラメータとして保存・管理します。これらのAPIキーへのアクセスと復号化を許可するポリシーを持つIAMロールを作成します。このロールをCodeDeployで管理されるEC2 スポットインスタンスのインスタンスプロファイルにアタッチし、register-on-premises-instanceコマンドを使用してオンプレミスサーバーにもアタッチします。AWS CodeDeployを使用して、EC2 スポットインスタンスとオンプレミスサーバーの両方にアプリケーションパッケージをデプロイします。
48
ソースAWSアカウントで、Amazon S3がオブジェクトレプリケーションのために引き受けることができるIAMロールを作成します。ソースバケットと送信先バケットの両方でバージョニングを有効にします。, 送信先バケットにバケットポリシーを作成し、ソースバケットがオブジェクトを複製できるようにします。, ソースバケット内にレプリケーションルールを設定し、レプリケーションプロセスを開始します。
49
AWS Step Functionsを実装し、2つのLambda関数を使用してRDS APIを呼び出し、データベーススナップショットを作成し、リージョン間でレプリケートし、バックアップリージョンでスナップショットからデータベースインスタンスを復元します。CloudWatch Eventsを使用して、30分ごとにデータベーススナップショットを取得する関数をスケジュールします。AWS Health API、RDSの可用性、その他の関連イベントからメッセージを受信するSNSトピックを設定し、これによりLambda関数がクロスリージョンスナップショットコピーを作成するトリガーとなります。フェイルオーバー時には、Lambda関数をプログラムしてバックアップリージョンの最新のスナップショットからデータベースを復元します。
50
CloudFormationテンプレートのコピーをDRリージョンのS3バケットに保存します。Auroraのクロスリージョンレプリケーションを有効にした自動バックアップを設定し、ECR クロスリージョンレプリケーションをセットアップします。DR発生時には、最新のAuroraスナップショットとECRからのDockerイメージを使用して新しいCloudFormationスタックをデプロイします。DNSを新しいALBに向けるように更新します。
51
プライマリAWSリージョンにCodeCommitリポジトリをソースとして、AWS CodePipelineを使用して新しいパイプラインを設定します。コードの更新時にビルドとデプロイメントアクションを開始するようにリポジトリを構成します。AWS Management Consoleを使用してパイプラインにクロスリージョンアクションを設定し、複数のリージョンにわたってビルドとデプロイメントアクションを有効にします。パイプラインは自動的に各リージョンのデフォルトのアーティファクトバケットに出力ファイルを保存します。
52
外部エクステンションを開発し、LambdaマイクロサービスをX-Rayのセグメントとサブセグメントに計装します。Lambda関数のX-Rayアクティブトレースを有効にします。X-Rayアクションを許可するIAM実行ロールを割り当てます。トランザクションワークフロー用のX-Rayグループを作成し、X-Ray Insightsを有効にします。通知用に適切なEventBridgeルールとCloudWatchアラームを設定します。
53
CloudTrailでAmazon S3データイベントを設定して、オブジェクトの変更を監視します。S3データイベントに応答してLambda関数をトリガーするルールを作成し、変更を行うユーザーが認可された医療スタッフの一部であるかを確認します。
54
AWS Lambdaを使用して検証スクリプトを作成し、AppSpec.yamlファイルのAfterAllowTestTrafficライフサイクルフックで指定します。これらの関数はテストトラフィックを使用してデプロイメントを検証し、テストが失敗した場合にロールバックを開始できます。
55
Amazon Kinesis Data Streamを使用してリアルタイムのユーザーインタラクションデータを収集し、Amazon Managed Service for Apache Flink Studioを利用してセッションの構築と分析を行います。集計された分析結果はLambda関数をトリガーしてリアルタイムイベント処理を行い、そのデータをKinesis Data Firehoseを通じてS3バケットに配信します。AWS Glueクローラーがデータをテーブルに取り込み、Amazon Athenaがクエリとオンデマンド分析を実行できるようにします。
問題一覧
1
S3バケット内のファイルを使用してGuardDutyの信頼できるIPリストと脅威リストを更新し、更新されたリストを再アクティブ化するLambda関数を開発します。S3イベント通知をAmazon EventBridgeに設定し、ファイルが更新されたときにLambda関数をトリガーするEventBridgeルールを作成します。, GuardDuty内で、S3内の対応するファイルをデータソースとして使用し、脅威リストと信頼できるIPリストを設定します。両方のリストをアクティブ化して、脅威検出機能を強化します。
2
AWS Elastic Beanstalkを使用して、ロードバランシングと自動スケーリング環境でPythonベースのLMSをホストします。Multi-AZデプロイメントを使用したAmazon RDS PostgreSQLデータベースを、Elastic Beanstalkスタックとは別に構成します。アプリケーションログを120日間の保持期間でAmazon CloudWatch Logsにストリーミングするようにログオプションを構成します。
3
アーキテクチャを再設計し、Lambdaで直接ストリームを消費する代わりに、Amazon Kinesis Adapterを実装して大規模なリアルタイムストリーミングデータ処理を行います。リスク評価モジュールを再構築して、Amazon Managed Service for Apache Flink Studioを利用するようにします。
4
Elastic Beanstalk環境のデプロイ設定を、イミュータブル環境更新を利用するように設定します。
5
既存のCloudFormationテンプレートを使用して、セカンダリAWSリージョンにアプリケーションスタックをデプロイします。セカンダリリージョンにAmazon RDS リードレプリカを確立し、プライマリS3バケットとセカンダリリージョンの新しいS3バケット間でクロスリージョンレプリケーションを有効にします。フェイルオーバーの際には、RDS リードレプリカをプライマリデータベースに昇格させます。フェイルオーバーシナリオ時に適切なパフォーマンスを確保するため、CloudFormationスタックテンプレートを使用してセカンダリリージョンのAuto Scalingグループのキャパシティを調整します。
6
2つのPatch Groupを異なるタグで作成し、すべてのLinux EC2インスタンスに割り当てます。両方のパッチグループにAWS-AmazonLinux2DefaultPatchBaselineを適用します。重複しない2つのメンテナンスウィンドウを設定し、それぞれ異なるパッチグループに関連付けます。Patch Groupタグを使用して、特定のメンテナンスウィンドウにターゲットを登録します。各メンテナンスウィンドウ内でAWS-RunPatchBaselineドキュメントをタスクとして設定し、パッチ適用プロセスの開始時間を異なる時間に設定します。
7
各Amazon EC2インスタンスに統合されたCloudWatch Logsエージェントをインストールして設定し、自動的にデータをCloudWatch Logsに送信します。CloudWatch Logs Insightsを使用してログデータを分析します。
8
CodeBuildを設定して、ユニットテストと統合テストを自動的に実行します。パイプラインの最後のデプロイアクションの後に、手動承認アクションを追加し、SNSを使用して関連するチームメンバーに通知します。最後に、アプリケーションを次のステージにプッシュするためのデプロイアクションでパイプラインを終了します。
9
EKSコンポーネントログをAmazon CloudWatch Logsにストリーミングします。各コンポーネントログに対してサブスクリプションフィルターを設定し、Lambda関数をサブスクリプションフィードの送信先として指定します。
10
AWS HealthのためのAWS EventBridgeルールを作成します。EC2サービスを選択し、通知を受けたい特定のイベントを選択します。ターゲットをリスク評価チームが購読しているAmazon SNSトピックに設定します。
11
AWS Management Consoleにアクセスし、Auto Scalingグループから発信されるREJECTエントリについてVPCフローログを調査します。Auto Scalingグループのエグレスセキュリティグループルールがサードパーティの市場データプロバイダーへのアウトバウンドトラフィックを許可していることを確認します。
12
AWS Elastic Beanstalkに取引アプリケーション全体をデプロイします。AWS Systems Manager Automationを使用して、必要な金融ライブラリと取引コンポーネントをすべて含むカスタムAMIを作成します。Elastic Beanstalk環境を、複数のアベイラビリティーゾーンに分散されたEC2インスタンスのAuto Scalingグループで設定し、ロードバランサーを前面に配置して受信リクエストを分散させます。Amazon DynamoDB Auto Scalingを有効にし、Amazon Route 53を使用してアプリケーションのDNSレコードをElastic Beanstalkのロードバランサーに向けます。
13
すべてのオンプレミスおよびAWSリソースに統合CloudWatch Logsエージェントをデプロイし、システムおよびアプリケーションログを収集します。集約されたデータを中央アカウント内のAmazon S3バケットに保存します。S3イベントトリガーを設定して、ログ分析と異常検出のためのLambda関数を呼び出します。詳細なログデータ分析にはAmazon Athenaを利用します。
14
IPアドレスの競合を解決するために、IPネットワークを再割り当てします。AWS Organizations内の新しいAWSアカウントにトランジットゲートウェイを確立し、VPCアタッチメントを設定します。AWS Resource Access Manager (RAM)を使用して、組織全体でトランジットゲートウェイを共有します。各部門のVPCにトランジットゲートウェイアタッチメントを作成します。ルーティングテーブルを更新し、宛先を各VPC CIDRブロックに、ターゲットを対応するトランジットゲートウェイアタッチメントに設定する新しいルートを追加します。サービス間通信を容易にするために、各VPCにNetwork Load Balancer (NLB)をデプロイします。
15
Lambda上で関数を作成し、Lambda@Edgeでデプロイします。
16
AWS Systems Manager Automationを使用して修復アクションを実行するカスタムAWS Configルールを設定し、インスタンスの公開アクセス可能なポート22を更新して、大学のメインキャンパスのパブリックIPのみに制限します。, Lambda関数を開発し、CloudWatch EventsとAWS Lambdaと統合して、スケジュールベースで関数を実行し、APIを介してAWS Trusted Advisorをチェックします。結果に基づいて、SNSトピックにメッセージを発行して購読者に警告します。, ポート22がパブリックに開放されていないことを確認するために、セキュリティグループを評価するカスタムAWS Configルールを設定します。非準拠の結果についてSNSトピックに通知を送信するように設定します。
17
AWS CodePipelineで新しいパイプラインを実装し、AWS CodeCommitに新しいコードがプッシュされたときに自動的にトリガーされるソースコードステップを設定します。AWS CodeBuildをビルドステップに使用してテストを自動化し、その後AWS CodeDeployを設定して更新されたLambda関数をデプロイします。デプロイメントには、事前定義されたCodeDeployDefault.LambdaLinear10PercentEvery3Minutes設定オプションを選択します。
18
AWS CloudWatch LogsでSQSのApproximateAgeOfOldestMessageメトリクスとDynamoDBのWriteThrottleEventsメトリクスを分析します。Lambda関数の予約済み同時実行数とDynamoDBテーブルの最大書き込みキャパシティーユニットを増やします。
19
S3バケットポリシーに不適切な権限が含まれています。, EC2インスタンスに関連付けられたIAMロールのアクセス権が誤って設定されています。
20
ローリングアップデートプロセス中に、以下のAuto Scalingプロセスを一時停止します:HealthCheck、ReplaceUnhealthy、AZRebalance、AlarmNotification、ScheduledActions。, AutoScalingRollingUpdateポリシーのMinSuccessfulInstancesPercentプロパティを調整し、少数のインスタンスの起動に失敗した場合でもCloudFormationがスタック全体をロールバックしないようにします。, AutoScalingRollingUpdateポリシーでWaitOnResourceSignalsプロパティをfalseに設定します。
21
CodePipelineの実行モードをQUEUEDに設定します。, 統合テストを実行するCodeBuildプロジェクトを作成します。新しく作成したCodeBuildプロジェクトを使用して、CodePipelineパイプラインにTest-typeアクションを設定します。
22
Amazon RDS Proxyを実装してデータベース接続を管理し、Auroraクラスターのリーダーエンドポイントに接続し、適切な最大接続数制限を設定します。, Lambda関数のコード内に接続プーリングロジックを実装し、プール内の最大データベース接続数を設定します。, Lambda関数の設定を変更し、直接Auroraクラスターのエンドポイントではなく、RDS Proxyのエンドポイントに接続するようにします。
23
単一のAWS CodeCommitリポジトリを設定し、マージされた変更用の開発ブランチを作成します。AWS CodeBuildを構成して、各コミット時に開発ブランチのコードを自動的にビルドしてテストします。リードデベロッパーによって承認されたプルリクエストを使用して、マスターブランチにマージします。AWS CodeDeployを使用してBlue/Greenデプロイメントを実装し、本番環境への更新をロールアウトします。
24
インスタンスを設定して、請求と返金のトランザクション数をカスタムメトリクスとしてCloudWatchに送信します。しきい値を超えた場合にSNSを介して運用チームに警告するCloudWatchアラームを作成します。AWS Management Consoleを使用して、公開されたメトリクスの統計グラフを表示します。
25
GitHubリポジトリにコードがプッシュされたときにAWS CodePipelineをトリガーするように設定します。パイプライン内でCodeBuildを使用してDockerイメージを生成します。ECSクラスターで構成される二次的なApplication Load BalancerターゲットグループにDockerコンテナをデプロイします。プライマリターゲットグループのリスナーポートを二次的なものと交換してデプロイメントを完了します。
26
AWS Systems Managerを使用して、マシンイメージ作成の設定を指定するAutomationドキュメントを作成します。AWS CodePipelineで新しいパイプラインをカスタムアクションで確立し、Amazon EventBridgeと統合してAutomationドキュメントを実行します。必要に応じてAMIビルドプロセスをトリガーし、結果のAMI IDをSystems Manager Parameter Storeに保存します。
27
バケットポリシーを実装して、S3バケットへの未認証アクセスを削除します。CodeBuildプロジェクトのサービスロールを変更して、Amazon S3へのアクセスを提供します。AWS CLIを使用して、データベーススクリプトを安全にダウンロードします。
28
Amazon GuardDutyを有効にします。
29
Amazon SNSトピックのアクセスポリシーを変更して、Amazon Managed Service for Prometheusサービスにsns:Publishとsns:GetTopicAttributesの権限を付与します。, 重要なアラート用のアラートルールを設定し、Amazon Managed Service for Prometheusがアラートマネージャー設定を利用するように構成します。, アラートルールが起動したときにAmazon SNSトピックに通知を送信するようにアラートマネージャーを設定します。
30
AWS Configと、承認されていないAMIから起動されたEC2インスタンスを定期的にチェックするLambda関数を実装します。AWS Systems Manager Automationを使用して修復アクションを設定し、非準拠インスタンスを自動的に終了します。Amazon SNSを使用して、そのような発生について情報セキュリティチームと製品開発チームに通知します。, AWS LambdaをCloudWatch Eventsと併用して、VPC内で実行中のEC2インスタンスの日次スキャンをスケジュールします。関数をプログラムして、未承認のAMIに基づくインスタンスを特定します。Amazon SNSを使用して情報セキュリティチームと製品開発チームに問題を警告し、その後、非準拠のEC2インスタンスを自動的に終了します。
31
AWS Service Catalogを実装し、臨床試験アプリケーション用の承認済みCloudFormationテンプレートを使用して製品を作成します。
32
すべてのEC2インスタンスのディスク容量使用率を監視するAmazon CloudWatchアラームを作成します。ディスク使用率が定義されたしきい値を超えた場合に、ディスククリーンアップスクリプトを実行するAWS Systems Manager Automationタスクをトリガーするように設定します。, すべてのAmazon EC2インスタンスにAmazon CloudWatch エージェントがインストールされ、適切に設定されていることを確認します。
33
ロググループに対してCloudWatch Logs Insightsクエリで集計関数を使用し、特定の失敗コードの総数を見つけます。
34
デフォルトでは、CodeDeployはデプロイメント場所のすべてのファイルをクリアし、自動ロールバックは古いリビジョンファイルを最初から再デプロイします。今後のデプロイメントでは、'Retain the content'オプションを選択して、古いアプリケーションリビジョンに含まれるファイルのみがデプロイされ、既存のコンテンツが保持されるようにする必要があります。
35
関連するAPI Gatewayステージに対してAPIキャッシングを有効にし、デフォルトのノード構成でDynamoDB Accelerator (DAX)クラスターをセットアップします。
36
S3バケットからプロキシIPアドレスのリストを読み取るLambda関数を作成します。この関数をプログラムして、ALBセキュリティグループを更新し、指定されたIPアドレスからのHTTPSリクエストのみを許可するようにします。Amazon S3 Event Notificationを利用して、JSONファイルが更新されたときに自動的にLambda関数をトリガーします。
37
Storage GatewayのRefreshCacheコマンドを実行するAWS Lambda関数を開発し、この関数をトリガーするために毎晩Amazon EventBridgeイベントを設定します。
38
設定変更トリガーを持つAWS Configルールを実装し、S3バケット設定の変更を識別し、Lambda関数を含むAWS Systems Manager Automationドキュメントを呼び出して変更を元に戻します。
39
ローカルセカンダリインデックスを持つ新しいDynamoDBテーブルを作成します。取引プラットフォームを修正して、検索にQuery操作を使用し、LastCommentTimestamp属性をソートキーとして利用します。
40
EC2インスタンスのデプロイメントにAuto Scaling groupを使用し、Instance Terminateのライフサイクルフックを組み込んだCloudFormationテンプレートを設計します。150のライセンスキーをDynamoDBテーブルに保存します。インスタンス起動時にDynamoDBテーブルから利用可能なライセンスを取得するUser Dataスクリプトを実装します。インスタンスが終了する際にDynamoDBのライセンス割り当てを更新するためにライフサイクルフックを利用します。
41
開発者用とシニアシステムアーキテクト用の2つのIAMグループを作成し、両方にAWSCodeCommitPowerUserポリシーを適用します。開発者グループには、CodeCommitリポジトリのmainブランチに対するPush、Delete、Mergeアクションを拒否する追加のIAMポリシーを適用します。
42
アプリケーションのセキュリティとコンプライアンスを強化するために、Amazon Inspectorを自動セキュリティ評価に実装します。3つのアベイラビリティゾーンにまたがるEC2インスタンスのAuto Scalingグループを展開し、トラフィック分散のためにApplication Load Balancerを前面に配置します。データベース層にはAmazon Auroraを使用します。Amazon Route 53にルートドメインのAliasレコードを設定し、ロードバランサーを指すようにします。
43
すべてのAWS CodePipelineパイプラインを監視し、承認アクションが拒否されたり失敗したりした場合に通知をトリガーします。
44
CloudFrontディストリビューションでオリジンサーバーへのエンドツーエンドのHTTPS接続を実装し、フィールドレベルの暗号化を利用します。オリジンにCache-Control max-ageディレクティブをオブジェクトに追加するよう設定し、max-ageに実用的な最長の値を設定してキャッシュヒット率を向上させます。
45
市場調査部門のAWSアカウントでiam:CreateUserアクションを拒否するAWS サービスコントロールポリシー (SCP)を実装します。
46
CloudFormationスタックの削除が失敗するのは、S3バケットにまだ患者データが含まれているためです。これを解決するには、カスタムリソースのLambda関数のコードを変更し、スタックが削除対象とマークされた場合にバケット内のすべてのデータを安全に消去するようにします。
47
AWS Systems Manager Parameter Storeを利用してAPIキーをSecure Stringパラメータとして保存・管理します。これらのAPIキーへのアクセスと復号化を許可するポリシーを持つIAMロールを作成します。このロールをCodeDeployで管理されるEC2 スポットインスタンスのインスタンスプロファイルにアタッチし、register-on-premises-instanceコマンドを使用してオンプレミスサーバーにもアタッチします。AWS CodeDeployを使用して、EC2 スポットインスタンスとオンプレミスサーバーの両方にアプリケーションパッケージをデプロイします。
48
ソースAWSアカウントで、Amazon S3がオブジェクトレプリケーションのために引き受けることができるIAMロールを作成します。ソースバケットと送信先バケットの両方でバージョニングを有効にします。, 送信先バケットにバケットポリシーを作成し、ソースバケットがオブジェクトを複製できるようにします。, ソースバケット内にレプリケーションルールを設定し、レプリケーションプロセスを開始します。
49
AWS Step Functionsを実装し、2つのLambda関数を使用してRDS APIを呼び出し、データベーススナップショットを作成し、リージョン間でレプリケートし、バックアップリージョンでスナップショットからデータベースインスタンスを復元します。CloudWatch Eventsを使用して、30分ごとにデータベーススナップショットを取得する関数をスケジュールします。AWS Health API、RDSの可用性、その他の関連イベントからメッセージを受信するSNSトピックを設定し、これによりLambda関数がクロスリージョンスナップショットコピーを作成するトリガーとなります。フェイルオーバー時には、Lambda関数をプログラムしてバックアップリージョンの最新のスナップショットからデータベースを復元します。
50
CloudFormationテンプレートのコピーをDRリージョンのS3バケットに保存します。Auroraのクロスリージョンレプリケーションを有効にした自動バックアップを設定し、ECR クロスリージョンレプリケーションをセットアップします。DR発生時には、最新のAuroraスナップショットとECRからのDockerイメージを使用して新しいCloudFormationスタックをデプロイします。DNSを新しいALBに向けるように更新します。
51
プライマリAWSリージョンにCodeCommitリポジトリをソースとして、AWS CodePipelineを使用して新しいパイプラインを設定します。コードの更新時にビルドとデプロイメントアクションを開始するようにリポジトリを構成します。AWS Management Consoleを使用してパイプラインにクロスリージョンアクションを設定し、複数のリージョンにわたってビルドとデプロイメントアクションを有効にします。パイプラインは自動的に各リージョンのデフォルトのアーティファクトバケットに出力ファイルを保存します。
52
外部エクステンションを開発し、LambdaマイクロサービスをX-Rayのセグメントとサブセグメントに計装します。Lambda関数のX-Rayアクティブトレースを有効にします。X-Rayアクションを許可するIAM実行ロールを割り当てます。トランザクションワークフロー用のX-Rayグループを作成し、X-Ray Insightsを有効にします。通知用に適切なEventBridgeルールとCloudWatchアラームを設定します。
53
CloudTrailでAmazon S3データイベントを設定して、オブジェクトの変更を監視します。S3データイベントに応答してLambda関数をトリガーするルールを作成し、変更を行うユーザーが認可された医療スタッフの一部であるかを確認します。
54
AWS Lambdaを使用して検証スクリプトを作成し、AppSpec.yamlファイルのAfterAllowTestTrafficライフサイクルフックで指定します。これらの関数はテストトラフィックを使用してデプロイメントを検証し、テストが失敗した場合にロールバックを開始できます。
55
Amazon Kinesis Data Streamを使用してリアルタイムのユーザーインタラクションデータを収集し、Amazon Managed Service for Apache Flink Studioを利用してセッションの構築と分析を行います。集計された分析結果はLambda関数をトリガーしてリアルタイムイベント処理を行い、そのデータをKinesis Data Firehoseを通じてS3バケットに配信します。AWS Glueクローラーがデータをテーブルに取り込み、Amazon Athenaがクエリとオンデマンド分析を実行できるようにします。