DEA-C01_2
DEA-C01問題集(45問)
問題一覧
1
Amazon Athenaを使用してデータをクエリします。AWS Lake Formationをセットアップし、データフィルタを作成して、会社のIAMロールのアクセスレベルを確立します。ユーザーのPIIアクセス要件に一致するIAMロールに各ユーザーを割り当てます
2
各ワークグループのクエリごとのデータ使用量コントロールで、クエリごとのデータ上限を設定します
3
データ形式を.csvからApache Parquetに変更します。Snappy圧縮を適用します
4
AWS Glueパーティションインデックスを作成します。パーティションフィルタリングを有効にします, S3バケットプレフィックスに基づくAthenaパーティションプロジェクションを使用します
5
述語に必要なデータブロックのみを取得することによって、.csvデータをApache Parquetフォーマットに前処理します, 企業がAthenaクエリを実行するのと同じAWSリージョンにあるS3バケットを使用します
6
Amazon Kinesis Data Firehoseにデータをロードします。Amazon Redshiftにデータをロードします
7
Amazon Redshift Spectrum, Amazon Athena
8
1時間ごとにETLジョブを実行するようにAWS Glueトリガーを設定します, AWS Glue接続を使用して、データソースとAmazon Redshift間の接続を確立します
9
AWS Glueデータカタログの作成AWS Glue Schema Registryを構成します。新しいAWS Glueワークロードを作成し、分析部門が使用するデータのAmazon Redshift Serverlessへの取り込みをオーケストレーションします
10
シャードがノード間で均等に分散されていることを確認します, 古いインデックスや未使用のインデックスを削除して、シャードの数を減らします
11
ステートマシンを含むAWS Step Functionsワークフローを使用します。ステートマシンを構成して、Lambda関数を実行し、AWS Glueジョブを実行します
12
S3バケットをデータレイクのロケーションとしてAWS Lake Formationに登録します。Lake Formationの行レベルのセキュリティ機能を使って、会社のアクセスポリシーを適用します
13
Amazon OpenSearch Service(Amazon Elasticsearch Service)
14
Amazon Kinesis Data Streamsを使ってセンサーデータを取得します。クエリ用にAmazon DynamoDBにデータを保存します
15
セキュリティAWSアカウントでデスティネーションデータストリームを作成します。IAMロールと信頼ポリシーを作成して、CloudWatch Logsにデータをストリームに入れる許可を与えます。本番用AWSアカウントでサブスクリプションフィルタを作成します
16
AWS Glueクローラースケジュールを設定し、データカタログに入力します
17
AWS Glueワークフロー
18
Amazon Redshift Data APIを使用して、Amazon EventBridgeにイベントを発行します。Lambda関数を呼び出すEventBridgeルールを設定します
19
カスタムPythonスクリプトをLambdaレイヤーにパッケージします。LambdaレイヤーをLambda関数に適用します
20
AWS GlueジョブのIAMロールに、保存されている資格情報へのアクセス権を付与します, AWS Secrets Managerに認証情報を保存します
21
クローラーのジョブを1つだけでなく、複数実行します
22
AWS Lambda関数を作成し、以前のデータと現在のデータの間の変更を特定します。変更をデータレイクに取り込むためにLambda関数を作成します
23
Hive用の外部メタストアを構成します
24
RunJobFlowアクションを使用してクラスターを作成する場合は、KeepJobFlowAliveWhenNoStepsプロパティをtrueに設定します
25
AWS CloudTraiLでデータイベントの証跡を作成します。トランザクションS3バケットからデータを受信するように証跡を設定します。空のプレフィックスと書き込み専用イベントを指定します。デスティネーションバケットとしてlogs S3バケットを指定します
26
Amazon Redshiftのクエリエディタv2を使用して、マテリアライズドビューをリフレッシュします
27
Amazon Kinesis
28
既存のgp2ボリュームのボリュームタイプをgp3に変更します。ボリュームサイズ、IOPS、およびスループットに新しい値を入力します
29
SQLクエリには、Amazon Athenaのクエリ結果再利用機能を使用します
30
AWS Lambda関数とAthena Boto3クライアントのstart_query_execution APIコールを使用して、プログラムでAthenaクエリを呼び出します, AWS Step Functionsワークフローを作成し、2つのステートを追加します。最初の状態をLambda関数の前に追加します。2つ目の状態をWaitステートとして設定し、Athena Boto3 get_query_execution APIコールを使用してAthenaクエリが終了したかどうかを定期的にチェックします。現在のクエリの実行が終了したら、次のクエリを呼び出すようにワークフローを構成します
31
AWS DataSyncエージェントをオンプレミスインスタンスにデプロイし、データをS3 Standard-IAバケットにレプリケートします
32
Amazon AppFlow
33
S3 Selectを使用してSQL SELECT文を記述し、S3オブジェクトから必要なカラムを取得します
34
Redshiftクラスターのワークロード管理(WLM)キューレベルで同時実行スケーリングをオンにします
35
Apache Spark DataFramesにデータをロードし、S3 Selectを使用します
36
AWS Application Auto Scalingを使用して、使用量のピーク時に高いプロビジョニング容量をスケジュールします。オフピーク時に低い容量をスケジュールします
37
Amazon S3にデータを書き込むコードを使用して、Boto3 AWS Glue create_partition APIコールを呼び出します
38
GROUP BY句の後にHAVING SUM(sales_amount) > 0を追加します
39
GRANT SQLコマンドを使用して、特権ユーザーにテーブルへのSELECTアクセス権を付与します。他のユーザーに対して、機密データを含まない列に対して、同じコマンドでGRANT SELECTを実行します
40
Amazon Managed Service for Apache Flink(以前はAmazon Kinesis Data Analyticsとして知られていた)を使用してセンサーデータを処理します。Apache Flink用のコネクターを使用して、Amazon Timestreamデータベースにデータを書き込みます。Timestreamデータベースをソースとして使用し、Grafanaダッシュボードを作成します
41
AWS Glueワークフロー
42
AWS Glueの抽出、変換、ロード(ETL)ジョブを作成し、.csv構造化データソースから読み込みます。データをApache Parquetフォーマットでデータレイクに書き込むようにジョブを構成します
43
メタストアとしてAWS Glue Data Catalogを使用するようにHiveを設定します
44
Amazon EMR
45
QuickSightはS3バケットにアクセスできません, QuickSightにはIAMロールが割り当てられていません
SOA-1
SOA-1
な · 50問 · 1年前SOA-1
SOA-1
50問 • 1年前SOA-Failed
SOA-Failed
な · 51問 · 1年前SOA-Failed
SOA-Failed
51問 • 1年前DEA-C01_1
DEA-C01_1
な · 65問 · 1年前DEA-C01_1
DEA-C01_1
65問 • 1年前DVA-C02_1
DVA-C02_1
な · 11回閲覧 · 65問 · 1年前DVA-C02_1
DVA-C02_1
11回閲覧 • 65問 • 1年前DVA-C02_2
DVA-C02_2
な · 3回閲覧 · 65問 · 1年前DVA-C02_2
DVA-C02_2
3回閲覧 • 65問 • 1年前DVA-C02_3
DVA-C02_3
な · 65問 · 1年前DVA-C02_3
DVA-C02_3
65問 • 1年前DVA-C02_4
DVA-C02_4
な · 3回閲覧 · 19問 · 1年前DVA-C02_4
DVA-C02_4
3回閲覧 • 19問 • 1年前SAP-C02_1
SAP-C02_1
な · 75問 · 1年前SAP-C02_1
SAP-C02_1
75問 • 1年前SAP-C02_2
SAP-C02_2
な · 75問 · 1年前SAP-C02_2
SAP-C02_2
75問 • 1年前SAP-C02_3
SAP-C02_3
な · 75問 · 1年前SAP-C02_3
SAP-C02_3
75問 • 1年前SAP-C02_4
SAP-C02_4
な · 75問 · 1年前SAP-C02_4
SAP-C02_4
75問 • 1年前SAP-C02_5
SAP-C02_5
な · 75問 · 1年前SAP-C02_5
SAP-C02_5
75問 • 1年前問題一覧
1
Amazon Athenaを使用してデータをクエリします。AWS Lake Formationをセットアップし、データフィルタを作成して、会社のIAMロールのアクセスレベルを確立します。ユーザーのPIIアクセス要件に一致するIAMロールに各ユーザーを割り当てます
2
各ワークグループのクエリごとのデータ使用量コントロールで、クエリごとのデータ上限を設定します
3
データ形式を.csvからApache Parquetに変更します。Snappy圧縮を適用します
4
AWS Glueパーティションインデックスを作成します。パーティションフィルタリングを有効にします, S3バケットプレフィックスに基づくAthenaパーティションプロジェクションを使用します
5
述語に必要なデータブロックのみを取得することによって、.csvデータをApache Parquetフォーマットに前処理します, 企業がAthenaクエリを実行するのと同じAWSリージョンにあるS3バケットを使用します
6
Amazon Kinesis Data Firehoseにデータをロードします。Amazon Redshiftにデータをロードします
7
Amazon Redshift Spectrum, Amazon Athena
8
1時間ごとにETLジョブを実行するようにAWS Glueトリガーを設定します, AWS Glue接続を使用して、データソースとAmazon Redshift間の接続を確立します
9
AWS Glueデータカタログの作成AWS Glue Schema Registryを構成します。新しいAWS Glueワークロードを作成し、分析部門が使用するデータのAmazon Redshift Serverlessへの取り込みをオーケストレーションします
10
シャードがノード間で均等に分散されていることを確認します, 古いインデックスや未使用のインデックスを削除して、シャードの数を減らします
11
ステートマシンを含むAWS Step Functionsワークフローを使用します。ステートマシンを構成して、Lambda関数を実行し、AWS Glueジョブを実行します
12
S3バケットをデータレイクのロケーションとしてAWS Lake Formationに登録します。Lake Formationの行レベルのセキュリティ機能を使って、会社のアクセスポリシーを適用します
13
Amazon OpenSearch Service(Amazon Elasticsearch Service)
14
Amazon Kinesis Data Streamsを使ってセンサーデータを取得します。クエリ用にAmazon DynamoDBにデータを保存します
15
セキュリティAWSアカウントでデスティネーションデータストリームを作成します。IAMロールと信頼ポリシーを作成して、CloudWatch Logsにデータをストリームに入れる許可を与えます。本番用AWSアカウントでサブスクリプションフィルタを作成します
16
AWS Glueクローラースケジュールを設定し、データカタログに入力します
17
AWS Glueワークフロー
18
Amazon Redshift Data APIを使用して、Amazon EventBridgeにイベントを発行します。Lambda関数を呼び出すEventBridgeルールを設定します
19
カスタムPythonスクリプトをLambdaレイヤーにパッケージします。LambdaレイヤーをLambda関数に適用します
20
AWS GlueジョブのIAMロールに、保存されている資格情報へのアクセス権を付与します, AWS Secrets Managerに認証情報を保存します
21
クローラーのジョブを1つだけでなく、複数実行します
22
AWS Lambda関数を作成し、以前のデータと現在のデータの間の変更を特定します。変更をデータレイクに取り込むためにLambda関数を作成します
23
Hive用の外部メタストアを構成します
24
RunJobFlowアクションを使用してクラスターを作成する場合は、KeepJobFlowAliveWhenNoStepsプロパティをtrueに設定します
25
AWS CloudTraiLでデータイベントの証跡を作成します。トランザクションS3バケットからデータを受信するように証跡を設定します。空のプレフィックスと書き込み専用イベントを指定します。デスティネーションバケットとしてlogs S3バケットを指定します
26
Amazon Redshiftのクエリエディタv2を使用して、マテリアライズドビューをリフレッシュします
27
Amazon Kinesis
28
既存のgp2ボリュームのボリュームタイプをgp3に変更します。ボリュームサイズ、IOPS、およびスループットに新しい値を入力します
29
SQLクエリには、Amazon Athenaのクエリ結果再利用機能を使用します
30
AWS Lambda関数とAthena Boto3クライアントのstart_query_execution APIコールを使用して、プログラムでAthenaクエリを呼び出します, AWS Step Functionsワークフローを作成し、2つのステートを追加します。最初の状態をLambda関数の前に追加します。2つ目の状態をWaitステートとして設定し、Athena Boto3 get_query_execution APIコールを使用してAthenaクエリが終了したかどうかを定期的にチェックします。現在のクエリの実行が終了したら、次のクエリを呼び出すようにワークフローを構成します
31
AWS DataSyncエージェントをオンプレミスインスタンスにデプロイし、データをS3 Standard-IAバケットにレプリケートします
32
Amazon AppFlow
33
S3 Selectを使用してSQL SELECT文を記述し、S3オブジェクトから必要なカラムを取得します
34
Redshiftクラスターのワークロード管理(WLM)キューレベルで同時実行スケーリングをオンにします
35
Apache Spark DataFramesにデータをロードし、S3 Selectを使用します
36
AWS Application Auto Scalingを使用して、使用量のピーク時に高いプロビジョニング容量をスケジュールします。オフピーク時に低い容量をスケジュールします
37
Amazon S3にデータを書き込むコードを使用して、Boto3 AWS Glue create_partition APIコールを呼び出します
38
GROUP BY句の後にHAVING SUM(sales_amount) > 0を追加します
39
GRANT SQLコマンドを使用して、特権ユーザーにテーブルへのSELECTアクセス権を付与します。他のユーザーに対して、機密データを含まない列に対して、同じコマンドでGRANT SELECTを実行します
40
Amazon Managed Service for Apache Flink(以前はAmazon Kinesis Data Analyticsとして知られていた)を使用してセンサーデータを処理します。Apache Flink用のコネクターを使用して、Amazon Timestreamデータベースにデータを書き込みます。Timestreamデータベースをソースとして使用し、Grafanaダッシュボードを作成します
41
AWS Glueワークフロー
42
AWS Glueの抽出、変換、ロード(ETL)ジョブを作成し、.csv構造化データソースから読み込みます。データをApache Parquetフォーマットでデータレイクに書き込むようにジョブを構成します
43
メタストアとしてAWS Glue Data Catalogを使用するようにHiveを設定します
44
Amazon EMR
45
QuickSightはS3バケットにアクセスできません, QuickSightにはIAMロールが割り当てられていません