PDE_page7
問題一覧
1
Dataformを使用して、SQLパイプラインを構築、管理、およびスケジュールします。
2
1. タイムスタンプでパーティション化されたmetricsテーブルを作成します。2. metricsテーブルに、sensorsテーブルのid列を指すsensorId列を作成します。3. 30秒ごとにINSERTステートメントを使用して、新しいメトリックをmetricsテーブルに追加します。4. 必要に応じて、分析クエリの実行時に2つのテーブルを結合します。
3
JSON ファイルと CSV ファイルを 未加工ゾーンに移動します。
4
マテリアライズドビューを作成して、ベーステーブルデータを集計します。フィルター句を含めて、過去1年間のパーティションを指定します。
5
AWS S3 バケットデータへの BigQuery Omni 接続を設定します。Cloud Storage および S3 データに対して BigLake テーブルを作成し、BigQuery を使用して直接データをクエリします。
6
Dataflow と Cloud Data Loss Prevention API を使用して、機密データをマスキングします。処理済みデータを BigQuery に書き込みます。
7
承認済みネットワークを空のままにします。すべてのアプリケーションで Cloud SQL Auth プロキシを使用します。
8
有効期間の長い署名付き URL を生成することにより、残りのファイルの新しい TSV ファイルを作成します。TSV ファイルを複数の小さなファイルに分割し、それらを並行して個別の Storage Transfer Service ジョブとして送信します。
9
気象日時の datetime 値でパーティション化された BigQuery テーブルを作成します。パーティションの有効期限を30日に設定します。
10
実行されているクエリに基づいてマテリアライズドビューを作成します。
11
プルサブスクリプションで Pub/Sub の exactly-once 配信を使用します。
12
Analytics Hub を使用してデータ共有を促進します。
13
新しい Dataproc クラスタでジョブを実行します。
14
ワーカー VM から外部 IP アドレスを無効にし、プライベート Google アクセスを有効にします。
15
Python を使用して JSON ファイルにロジックを適用する Cloud Functions インスタンスを呼び出します。
16
販売テーブルの上にマテリアライズドビューを作成して、日レベルと月レベルでデータを集計します。
17
Cloud Data Fusion を使用して、ファイルを Cloud Storage に移動します。
18
テーブルの Cloud Storage デュアルリージョンまたはマルチリージョンバケットへの日次エクスポートをスケジュールします。
19
Dataflow と Cloud Data Loss Prevention API を使用して、機密データをマスキングします。処理済みデータを BigQuery に書き込みます。
PDE_page4
PDE_page4
ユーザ名非公開 · 50問 · 1年前PDE_page4
PDE_page4
50問 • 1年前PDE_page5
PDE_page5
ユーザ名非公開 · 50問 · 1年前PDE_page5
PDE_page5
50問 • 1年前PDE_page6
PDE_page6
ユーザ名非公開 · 50問 · 1年前PDE_page6
PDE_page6
50問 • 1年前PMLE04
PMLE04
ユーザ名非公開 · 50問 · 8ヶ月前PMLE04
PMLE04
50問 • 8ヶ月前PMLE05
PMLE05
ユーザ名非公開 · 50問 · 8ヶ月前PMLE05
PMLE05
50問 • 8ヶ月前PMLE06
PMLE06
ユーザ名非公開 · 50問 · 8ヶ月前PMLE06
PMLE06
50問 • 8ヶ月前PMLE07
PMLE07
ユーザ名非公開 · 39問 · 8ヶ月前PMLE07
PMLE07
39問 • 8ヶ月前問題一覧
1
Dataformを使用して、SQLパイプラインを構築、管理、およびスケジュールします。
2
1. タイムスタンプでパーティション化されたmetricsテーブルを作成します。2. metricsテーブルに、sensorsテーブルのid列を指すsensorId列を作成します。3. 30秒ごとにINSERTステートメントを使用して、新しいメトリックをmetricsテーブルに追加します。4. 必要に応じて、分析クエリの実行時に2つのテーブルを結合します。
3
JSON ファイルと CSV ファイルを 未加工ゾーンに移動します。
4
マテリアライズドビューを作成して、ベーステーブルデータを集計します。フィルター句を含めて、過去1年間のパーティションを指定します。
5
AWS S3 バケットデータへの BigQuery Omni 接続を設定します。Cloud Storage および S3 データに対して BigLake テーブルを作成し、BigQuery を使用して直接データをクエリします。
6
Dataflow と Cloud Data Loss Prevention API を使用して、機密データをマスキングします。処理済みデータを BigQuery に書き込みます。
7
承認済みネットワークを空のままにします。すべてのアプリケーションで Cloud SQL Auth プロキシを使用します。
8
有効期間の長い署名付き URL を生成することにより、残りのファイルの新しい TSV ファイルを作成します。TSV ファイルを複数の小さなファイルに分割し、それらを並行して個別の Storage Transfer Service ジョブとして送信します。
9
気象日時の datetime 値でパーティション化された BigQuery テーブルを作成します。パーティションの有効期限を30日に設定します。
10
実行されているクエリに基づいてマテリアライズドビューを作成します。
11
プルサブスクリプションで Pub/Sub の exactly-once 配信を使用します。
12
Analytics Hub を使用してデータ共有を促進します。
13
新しい Dataproc クラスタでジョブを実行します。
14
ワーカー VM から外部 IP アドレスを無効にし、プライベート Google アクセスを有効にします。
15
Python を使用して JSON ファイルにロジックを適用する Cloud Functions インスタンスを呼び出します。
16
販売テーブルの上にマテリアライズドビューを作成して、日レベルと月レベルでデータを集計します。
17
Cloud Data Fusion を使用して、ファイルを Cloud Storage に移動します。
18
テーブルの Cloud Storage デュアルリージョンまたはマルチリージョンバケットへの日次エクスポートをスケジュールします。
19
Dataflow と Cloud Data Loss Prevention API を使用して、機密データをマスキングします。処理済みデータを BigQuery に書き込みます。