DEA-C01_1
DEA-C01問題集(65問)
問題一覧
1
DBインスタンスが使用するサブネットと同じサブネットで実行するようにLambda関数を設定します, DBインスタンスのセキュリティグループを更新し、データベースポートに対するLambda関数の呼び出しのみを許可します
2
データエンジニアのIAMユーザーに、信頼ポリシーにAWS GlueとSageMakerサービスプリンシパルのsts:AssumeRoleアクションを含むポリシーを追加します
3
Amazon Redshift Data APIを使用します
4
クラスターの手動スナップショットを作成します
5
代わりにPySparkを使ってParquetファイルを連結します
6
アーカイブされたデータに対してデータ変換を実行するために、Amazon EMRクラスターをインスタンス化します, AWS Glueクローラーを実行することで、日々の受信データのスキーマをスキャンし、特定します, AWS Glueジョブを使用したAWS Glueワークフローを使用して、毎日受信するデータに対してデータ変換を実行します
7
単一のCOPYコマンドを使用してRedshiftクラスターにデータをロードします
8
AWS Glueクローラーを作成し、S3ファイルのAWS Glue Data Catalogを作成します。Amazon AthenaからSQLクエリを実行し、個別の顧客数を計算します
9
ファイルがS3バケットにロードされたときにAWS Glueクローラを呼び出すAWS Lambda関数を作成します。データを処理してAmazon RedshiftのテーブルにロードするAWS Glueジョブを構成します。AWS Glueジョブを実行する2つ目のLambda関数を作成します。AWS Glueクローラーが正常に実行を終了したときに、2番目のLambda関数を呼び出すためのAmazon EventBridgeルールを作成します, Amazon EventBridgeルールを使用して、15分ごとにAWS Glueジョブを実行します。AWS Glueジョブを構成して、データを処理し、Amazon Redshiftのテーブルにロードします
10
VPCのルートテーブルに、Amazon S3 VPCゲートウェイエンドポイントのインバウンドおよびアウトバウンドルートが含まれていることを確認します
11
データは、アナリストのRedshiftクラスターのユーザー認証情報ではアクセスできないテーブルにあります
12
プロビジョニングされた同時実行を持つAWS Lambda Python関数を作成します
13
データ保存にはAmazon S3を使用。データ分析にはAmazon Athenaを使用します, AWS Lake Formationを使用して、データガバナンスとアクセス制御を一元化します
14
EC2インスタンスストアボリュームでバックアップされたAMIを使用して、新しいEC2インスタンスを起動します。アプリケーションデータを格納するAmazon Elastic Block Store(Amazon EBS)ボリュームをアタッチします。EC2インスタンスにデフォルト設定を適用します
15
AWS Glueを使ってデータソースをクロールします。AWS Glue Data Catalogにメタデータを格納します。Amazon Athenaを使用してデータをクエリします。構造化データソースにはSQLを使用します。JSON形式で保存されているデータにはPartiQLを使用します
16
めったに更新されない小さなテーブルにはALLディストリビューションスタイルを使用します。すべてのテーブルにプライマリキーと外部キーを指定します
17
AWS Glue Data Catalogをメタデータのセントラルリポジトリとして使用します。AWS Glueクローラを使用して、複数のデータストアに接続し、メタデータの変更でデータカタログを更新します。メタデータカタログを更新するために、クローラーを定期的に実行するようにスケジュールします
18
6ヶ月後にオブジェクトをS3 Standard-Infrequent Access(S3 Standard-IA)に移行します。2年後にオブジェクトをS3 Glacier Flexible Retrievalに移行します
19
ワーカータイプをスケールアップしてAWS Glueインスタンスサイズを大きくします, S3バケットにあるデータをパーティション分けします。データを年、月、日で整理します
20
Amazon EMRでHiveメタストアを構成します。既存のオンプレミスのHiveメタストアをAmazon EMRに移行します。AWS Glue Data Catalogを使用して、会社のデータカタログを外部データカタログとして格納します
21
SQLのSELECT文のWHERE句で最もよく使われるデータカラムをソートキーに変更します
22
AWS Glueを使用してスキーマを検出し、データを抽出、変換、S3バケットにロードします。Apache Sparkでパイプラインを作成します
23
APIコールを使用して、AWS Data Exchangeからサードパーティーのデータセットにアクセスし、統合します
24
Athenaデータソース
25
Mapステート
26
タスクノード
27
AWS Glue DataBrewを使用してファイルを読み込みます。NEST_TO_MAP変換を使用して、新しいカラムを作成します
28
AWS Glue Data Catalogを使用します
29
コアノードとタスクノードにはGravitonインスタンスを使用します, 永続的なデータストアとしてAmazon S3を使用します
30
適切なパーミッションでAmazon S3バケットを作成します, Amazon EC2インスタンスプロファイルとAmazon EMRロールを、正しいkmsパーミッションで構成します, 新しいEMRクラスターを作成し、AWS KMSのカスタマーマネージドキーでロギングとログの暗号化を有効にします
31
データセットを選択し、データセット設定で毎日のスケジュール更新を作成します
32
イベントタイプがs3:ObjectCreated:* であるS3イベント通知を作成します。サフィックスに.csvが含まれる場合のみ通知を生成するフィルタルールを使用します。イベント通知の宛先として、Lambda関数のAmazon Resource Name(ARN)を設定します
33
Redshiftデータ共有を使用して、営業チームのBIクラスターをETLクラスターのコンシューマーとして設定します
34
最も一般的なクエリ述語に基づいてデータを分割します, 列指向ストレージファイルフォーマットを使用します
35
VACUUM FULL Orders
36
AWS Lake Formationできめ細かいアクセス制御を有効にします。リージョンごとにデータフィルタを追加します, S3パスをAWS Lake Formationのロケーションとして登録します
37
Amazon QuickSightコンソールから新しいS3バケットのパーミッションを設定します
38
AWS Glueの抽出、変換、ロード(ETL)ジョブを書きます。FindMatches機械学習(ML)変換を使用してデータを変換し、データ重複除外を実行します
39
ユースケースごとにAthenaワークグループを作成します。ワークグループにタグを適用します。タグを使用してワークグループに適切な権限を適用するIAMポリシーを作成します
40
AWS Database Migration Service(DMS)
41
.csvファイルをAmazon S3に保存しますが、大きな.csvファイルは小さなチャンクに分割します。COPYコマンドを使用して、ファイルをAmazon Redshiftにロードします
42
Amazon Redshift Serverlessを使用して、アナリティクスのワークロードを自動的に処理します
43
インスタンスフリートを使用するAmazon EMRクラスターを構成します, すべてのノードタイプにスポットキャパシティを割り当て、オンデマンドインスタンスに切り替えるオプションを有効にします
44
Kinesis Data StreamsをAmazon Kinesis Data Firehoseに接続します。Kinesis Data Firehoseを使用してAmazon S3にデータをステージングします。COPYコマンドを使用して、Amazon S3からAmazon Redshiftのテーブルにデータをロードします
45
Amazon Managed Service for Apache Flink(以前はAmazon Kinesis Data Analyticsとして知られていた)を使用して、最大30分のウィンドウで時間ベースの分析を実行するために複数のタイプの集計を使用してデータを分析します
46
AWS Glueを使ってデータソースをクロールします。AWS Glue Data Catalogにメタデータを格納します。Amazon Athenaを使用してデータをクエリします。構造化データソースにはSQLを使用します。JSON形式で保存されているデータにはPartiQLを使用します
47
データレイクのストレージにはAmazon S3を使用します。AWS Lake Formationを使用して、行や列でデータアクセスを制限します。AWS Lake Formationを通じてデータアクセスを提供します
48
AWS Glue StudioのDetect PIIトランスフォームを使用してPIIを特定します。AWS Glue Data Qualityでルールを作成し、PIIを秘匿化します。AWS Step Functionsステートマシンを使用して、S3データレイクにデータをインジェストするデータパイプラインをオーケストレーションします
49
AWSGlueServiceRoleポリシーを含むIAMロールを作成します。このロールをクローラーと関連付けます。クローラーのデータストアとして、ソースデータのS3バケットパスを指定します。クローラーを実行する日次スケジュールを作成します。出力用のデータベース名を指定します
50
ストリームのシャード数を増やします
51
EC2インスタンスベースのSQL Serverデータベースに、必要なデータ要素を含むビューを作成します。ビューから直接データを選択し、S3バケットにParquet形式でデータを転送するAWS Glueジョブを作成します。AWS Glueジョブを毎日実行するようにスケジュールします
52
小さなファイルをAmazon S3の大きなオブジェクトにマージすることで、ファイルサイズを最適化します
53
STL_ALERT_EVENT_LOG
54
AWS DataSync
55
クエリごとのデータ使用量コントロールでデータ制限を設定します
56
AWS KMSキー(SSE-KMS)によるサーバーサイド暗号化を使用して、顧客情報を含むオブジェクトを暗号化します。オブジェクトを暗号化するKMSキーへのアクセスを制限するIAMポリシーを構成します
57
AWS Glue Pythonシェルジョブを書きます。pandasを使ってデータを変換します
58
より大きなインスタンスサイズにアップグレードします, Amazon RDSのパフォーマンスインサイト機能を使って、CPU使用率が高いクエリを特定します。問題のあるクエリを最適化します
59
DynamoDB、Amazon RDS、Amazon RedshiftからAmazon S3にデータをコピーします。Amazon AthenaクエリをS3ファイル上で直接実行します
60
filter_pathパラメータを使用して、レスポンス内の無関係なフィールドを除外します
61
S3 Object Lambdaエンドポイントを作成します。S3 Object Lambdaエンドポイントを使用して、S3バケットからデータを読み込みます。S3 Object Lambda関数内に再編集ロジックを実装し、データにアクセスする各アプリケーションのニーズに基づいて動的にPIIを再編集します
62
AWS Glue DynamicFrameクラスのuseS3ListImplementationの設定をTrueにします, DynamicFrameクラスのgroupFilesオプションをinPartitionに設定します
63
ジョブのプロパティを変更し、必要なDPU数を評価するためのジョブメトリクスを有効にします。最大キャパシティパラメータ値を変更し、より高い数値に設定します
64
複数のファイルから同時にデータを読み込むには、マニフェストファイルで単一のCOPYコマンドを使用します, ローディングプロセスでは、一時的なステージングテーブルを使用します
65
VPCのフローログを照会します。EMRクラスターから発信されたトラフィックがデータプロバイダーに正常に到達できるかどうかを判断します。Amazon EMRクラスターにアタッチされている可能性のあるセキュリティグループが、通知されたポートでデータソースサーバへの接続を許可しているかどうかを判断します, Step Functionsステートマシンコードが、EMRジョブの作成と実行に必要なすべてのIAM権限を持っていることを確認します。Step Functionsのステートマシンコードに、EMRジョブが使用するAmazon S3バケットにアクセスするためのIAM権限も含まれていることを確認します。Access Analyzer for S3を使用して、S3のアクセスプロパティを確認します
SOA-1
SOA-1
な · 50問 · 1年前SOA-1
SOA-1
50問 • 1年前SOA-Failed
SOA-Failed
な · 51問 · 1年前SOA-Failed
SOA-Failed
51問 • 1年前DEA-C01_2
DEA-C01_2
な · 45問 · 1年前DEA-C01_2
DEA-C01_2
45問 • 1年前DVA-C02_1
DVA-C02_1
な · 11回閲覧 · 65問 · 1年前DVA-C02_1
DVA-C02_1
11回閲覧 • 65問 • 1年前DVA-C02_2
DVA-C02_2
な · 3回閲覧 · 65問 · 1年前DVA-C02_2
DVA-C02_2
3回閲覧 • 65問 • 1年前DVA-C02_3
DVA-C02_3
な · 65問 · 1年前DVA-C02_3
DVA-C02_3
65問 • 1年前DVA-C02_4
DVA-C02_4
な · 3回閲覧 · 19問 · 1年前DVA-C02_4
DVA-C02_4
3回閲覧 • 19問 • 1年前SAP-C02_1
SAP-C02_1
な · 75問 · 1年前SAP-C02_1
SAP-C02_1
75問 • 1年前SAP-C02_2
SAP-C02_2
な · 75問 · 1年前SAP-C02_2
SAP-C02_2
75問 • 1年前SAP-C02_3
SAP-C02_3
な · 75問 · 1年前SAP-C02_3
SAP-C02_3
75問 • 1年前SAP-C02_4
SAP-C02_4
な · 75問 · 1年前SAP-C02_4
SAP-C02_4
75問 • 1年前SAP-C02_5
SAP-C02_5
な · 75問 · 1年前SAP-C02_5
SAP-C02_5
75問 • 1年前問題一覧
1
DBインスタンスが使用するサブネットと同じサブネットで実行するようにLambda関数を設定します, DBインスタンスのセキュリティグループを更新し、データベースポートに対するLambda関数の呼び出しのみを許可します
2
データエンジニアのIAMユーザーに、信頼ポリシーにAWS GlueとSageMakerサービスプリンシパルのsts:AssumeRoleアクションを含むポリシーを追加します
3
Amazon Redshift Data APIを使用します
4
クラスターの手動スナップショットを作成します
5
代わりにPySparkを使ってParquetファイルを連結します
6
アーカイブされたデータに対してデータ変換を実行するために、Amazon EMRクラスターをインスタンス化します, AWS Glueクローラーを実行することで、日々の受信データのスキーマをスキャンし、特定します, AWS Glueジョブを使用したAWS Glueワークフローを使用して、毎日受信するデータに対してデータ変換を実行します
7
単一のCOPYコマンドを使用してRedshiftクラスターにデータをロードします
8
AWS Glueクローラーを作成し、S3ファイルのAWS Glue Data Catalogを作成します。Amazon AthenaからSQLクエリを実行し、個別の顧客数を計算します
9
ファイルがS3バケットにロードされたときにAWS Glueクローラを呼び出すAWS Lambda関数を作成します。データを処理してAmazon RedshiftのテーブルにロードするAWS Glueジョブを構成します。AWS Glueジョブを実行する2つ目のLambda関数を作成します。AWS Glueクローラーが正常に実行を終了したときに、2番目のLambda関数を呼び出すためのAmazon EventBridgeルールを作成します, Amazon EventBridgeルールを使用して、15分ごとにAWS Glueジョブを実行します。AWS Glueジョブを構成して、データを処理し、Amazon Redshiftのテーブルにロードします
10
VPCのルートテーブルに、Amazon S3 VPCゲートウェイエンドポイントのインバウンドおよびアウトバウンドルートが含まれていることを確認します
11
データは、アナリストのRedshiftクラスターのユーザー認証情報ではアクセスできないテーブルにあります
12
プロビジョニングされた同時実行を持つAWS Lambda Python関数を作成します
13
データ保存にはAmazon S3を使用。データ分析にはAmazon Athenaを使用します, AWS Lake Formationを使用して、データガバナンスとアクセス制御を一元化します
14
EC2インスタンスストアボリュームでバックアップされたAMIを使用して、新しいEC2インスタンスを起動します。アプリケーションデータを格納するAmazon Elastic Block Store(Amazon EBS)ボリュームをアタッチします。EC2インスタンスにデフォルト設定を適用します
15
AWS Glueを使ってデータソースをクロールします。AWS Glue Data Catalogにメタデータを格納します。Amazon Athenaを使用してデータをクエリします。構造化データソースにはSQLを使用します。JSON形式で保存されているデータにはPartiQLを使用します
16
めったに更新されない小さなテーブルにはALLディストリビューションスタイルを使用します。すべてのテーブルにプライマリキーと外部キーを指定します
17
AWS Glue Data Catalogをメタデータのセントラルリポジトリとして使用します。AWS Glueクローラを使用して、複数のデータストアに接続し、メタデータの変更でデータカタログを更新します。メタデータカタログを更新するために、クローラーを定期的に実行するようにスケジュールします
18
6ヶ月後にオブジェクトをS3 Standard-Infrequent Access(S3 Standard-IA)に移行します。2年後にオブジェクトをS3 Glacier Flexible Retrievalに移行します
19
ワーカータイプをスケールアップしてAWS Glueインスタンスサイズを大きくします, S3バケットにあるデータをパーティション分けします。データを年、月、日で整理します
20
Amazon EMRでHiveメタストアを構成します。既存のオンプレミスのHiveメタストアをAmazon EMRに移行します。AWS Glue Data Catalogを使用して、会社のデータカタログを外部データカタログとして格納します
21
SQLのSELECT文のWHERE句で最もよく使われるデータカラムをソートキーに変更します
22
AWS Glueを使用してスキーマを検出し、データを抽出、変換、S3バケットにロードします。Apache Sparkでパイプラインを作成します
23
APIコールを使用して、AWS Data Exchangeからサードパーティーのデータセットにアクセスし、統合します
24
Athenaデータソース
25
Mapステート
26
タスクノード
27
AWS Glue DataBrewを使用してファイルを読み込みます。NEST_TO_MAP変換を使用して、新しいカラムを作成します
28
AWS Glue Data Catalogを使用します
29
コアノードとタスクノードにはGravitonインスタンスを使用します, 永続的なデータストアとしてAmazon S3を使用します
30
適切なパーミッションでAmazon S3バケットを作成します, Amazon EC2インスタンスプロファイルとAmazon EMRロールを、正しいkmsパーミッションで構成します, 新しいEMRクラスターを作成し、AWS KMSのカスタマーマネージドキーでロギングとログの暗号化を有効にします
31
データセットを選択し、データセット設定で毎日のスケジュール更新を作成します
32
イベントタイプがs3:ObjectCreated:* であるS3イベント通知を作成します。サフィックスに.csvが含まれる場合のみ通知を生成するフィルタルールを使用します。イベント通知の宛先として、Lambda関数のAmazon Resource Name(ARN)を設定します
33
Redshiftデータ共有を使用して、営業チームのBIクラスターをETLクラスターのコンシューマーとして設定します
34
最も一般的なクエリ述語に基づいてデータを分割します, 列指向ストレージファイルフォーマットを使用します
35
VACUUM FULL Orders
36
AWS Lake Formationできめ細かいアクセス制御を有効にします。リージョンごとにデータフィルタを追加します, S3パスをAWS Lake Formationのロケーションとして登録します
37
Amazon QuickSightコンソールから新しいS3バケットのパーミッションを設定します
38
AWS Glueの抽出、変換、ロード(ETL)ジョブを書きます。FindMatches機械学習(ML)変換を使用してデータを変換し、データ重複除外を実行します
39
ユースケースごとにAthenaワークグループを作成します。ワークグループにタグを適用します。タグを使用してワークグループに適切な権限を適用するIAMポリシーを作成します
40
AWS Database Migration Service(DMS)
41
.csvファイルをAmazon S3に保存しますが、大きな.csvファイルは小さなチャンクに分割します。COPYコマンドを使用して、ファイルをAmazon Redshiftにロードします
42
Amazon Redshift Serverlessを使用して、アナリティクスのワークロードを自動的に処理します
43
インスタンスフリートを使用するAmazon EMRクラスターを構成します, すべてのノードタイプにスポットキャパシティを割り当て、オンデマンドインスタンスに切り替えるオプションを有効にします
44
Kinesis Data StreamsをAmazon Kinesis Data Firehoseに接続します。Kinesis Data Firehoseを使用してAmazon S3にデータをステージングします。COPYコマンドを使用して、Amazon S3からAmazon Redshiftのテーブルにデータをロードします
45
Amazon Managed Service for Apache Flink(以前はAmazon Kinesis Data Analyticsとして知られていた)を使用して、最大30分のウィンドウで時間ベースの分析を実行するために複数のタイプの集計を使用してデータを分析します
46
AWS Glueを使ってデータソースをクロールします。AWS Glue Data Catalogにメタデータを格納します。Amazon Athenaを使用してデータをクエリします。構造化データソースにはSQLを使用します。JSON形式で保存されているデータにはPartiQLを使用します
47
データレイクのストレージにはAmazon S3を使用します。AWS Lake Formationを使用して、行や列でデータアクセスを制限します。AWS Lake Formationを通じてデータアクセスを提供します
48
AWS Glue StudioのDetect PIIトランスフォームを使用してPIIを特定します。AWS Glue Data Qualityでルールを作成し、PIIを秘匿化します。AWS Step Functionsステートマシンを使用して、S3データレイクにデータをインジェストするデータパイプラインをオーケストレーションします
49
AWSGlueServiceRoleポリシーを含むIAMロールを作成します。このロールをクローラーと関連付けます。クローラーのデータストアとして、ソースデータのS3バケットパスを指定します。クローラーを実行する日次スケジュールを作成します。出力用のデータベース名を指定します
50
ストリームのシャード数を増やします
51
EC2インスタンスベースのSQL Serverデータベースに、必要なデータ要素を含むビューを作成します。ビューから直接データを選択し、S3バケットにParquet形式でデータを転送するAWS Glueジョブを作成します。AWS Glueジョブを毎日実行するようにスケジュールします
52
小さなファイルをAmazon S3の大きなオブジェクトにマージすることで、ファイルサイズを最適化します
53
STL_ALERT_EVENT_LOG
54
AWS DataSync
55
クエリごとのデータ使用量コントロールでデータ制限を設定します
56
AWS KMSキー(SSE-KMS)によるサーバーサイド暗号化を使用して、顧客情報を含むオブジェクトを暗号化します。オブジェクトを暗号化するKMSキーへのアクセスを制限するIAMポリシーを構成します
57
AWS Glue Pythonシェルジョブを書きます。pandasを使ってデータを変換します
58
より大きなインスタンスサイズにアップグレードします, Amazon RDSのパフォーマンスインサイト機能を使って、CPU使用率が高いクエリを特定します。問題のあるクエリを最適化します
59
DynamoDB、Amazon RDS、Amazon RedshiftからAmazon S3にデータをコピーします。Amazon AthenaクエリをS3ファイル上で直接実行します
60
filter_pathパラメータを使用して、レスポンス内の無関係なフィールドを除外します
61
S3 Object Lambdaエンドポイントを作成します。S3 Object Lambdaエンドポイントを使用して、S3バケットからデータを読み込みます。S3 Object Lambda関数内に再編集ロジックを実装し、データにアクセスする各アプリケーションのニーズに基づいて動的にPIIを再編集します
62
AWS Glue DynamicFrameクラスのuseS3ListImplementationの設定をTrueにします, DynamicFrameクラスのgroupFilesオプションをinPartitionに設定します
63
ジョブのプロパティを変更し、必要なDPU数を評価するためのジョブメトリクスを有効にします。最大キャパシティパラメータ値を変更し、より高い数値に設定します
64
複数のファイルから同時にデータを読み込むには、マニフェストファイルで単一のCOPYコマンドを使用します, ローディングプロセスでは、一時的なステージングテーブルを使用します
65
VPCのフローログを照会します。EMRクラスターから発信されたトラフィックがデータプロバイダーに正常に到達できるかどうかを判断します。Amazon EMRクラスターにアタッチされている可能性のあるセキュリティグループが、通知されたポートでデータソースサーバへの接続を許可しているかどうかを判断します, Step Functionsステートマシンコードが、EMRジョブの作成と実行に必要なすべてのIAM権限を持っていることを確認します。Step Functionsのステートマシンコードに、EMRジョブが使用するAmazon S3バケットにアクセスするためのIAM権限も含まれていることを確認します。Access Analyzer for S3を使用して、S3のアクセスプロパティを確認します