問題一覧
1
Cloud Data Fusion と Wrangler を使用してデータを正規化し、定期的なジョブを設定します。
2
サブスクリプション再試行ポリシーとして指数バックオフを使用し、最大配信試行回数を 10 に設定して別のトピックへのデッドレターを構成します。
3
Analytics Hub プライベート エクスチェンジを作成し、販売データセットを公開します。
4
これらのクエリに必要なテーブルを両方の Cloud SQL データベースから BigQuery に複製するには、Datastream にストリームを作成します。
5
1. 各部門のアプリケーションのデータ保存用に複数のプロジェクトを作成します。2. 各部門が Cloud Storage バケットと BigQuery データセットを作成できるようにします。3. Dataplex で、各部門をデータレイクと Cloud Storage バケットにマッピングし、BigQuery データセットをゾーンにマッピングします。4. 各部門がデータレイクのデータを所有し、共有できるようにします。
6
トピックの保持ポリシーを 30 日に設定します。
7
Dataflow パイプラインを実行するサービス アカウントに compute.networkUser ロールを割り当てます。
8
Dataflow を使用して、Kafka からデータを読み取り、BigQuery にデータを書き込むパイプラインを作成します。
9
1. BigLake テーブルを定義します。2. Data Catalog でポリシータグの分類を作成します。3. 列にポリシータグを追加します。4. Spark-BigQuery コネクタまたは BigQuery SQL を使用して処理します。
10
新しい Cloud KMS 鍵を作成します。新しい鍵をデフォルトの CMEK 鍵として使用するように設定された新しい Cloud Storage バケットを作成します。鍵を指定せずに、古いバケットから新しいバケットにすべてのオブジェクトをコピーします。
11
1. us-central1 リージョンと us-south1 リージョンにデュアルリージョン Cloud Storage バケットを作成します。2. ターボレプリケーションを有効にします。3. us-central1 リージョンのゾーンで Dataproc クラスタを実行し、同じリージョンのバケットから読み取ります。4. リージョン障害が発生した場合は、Dataproc クラスタを us-south1 リージョンに再デプロイし、同じバケットから読み取ります。
12
PostgreSQL データベースを Cloud SQL for PostgreSQL に移行します。
13
Dataform を使用して、SQL パイプラインを構築、管理、スケジュールします。
14
1. タイムスタンプでパーティション化されたメトリクス テーブルを作成します。2. メトリック テーブルに、センサー テーブルの id 列を指す sensorId 列を作成します。3. 30 秒ごとに INSERT ステートメントを使用して、新しいメトリックをメトリック テーブルに追加します。4. 分析クエリを実行するときに、必要に応じて 2 つのテーブルを結合します。
15
JSON および CSV ファイルを raw ゾーンに移動します。
16
ベーステーブルデータを集計するためのマテリアライズドビューを作成します。フィルター句を使用して、過去1年間のパーティションを指定します。
17
AWS S3バケットデータへのBigQuery Omni接続を設定します。Cloud StorageとS3データ上にBigLakeテーブルを作成し、BigQueryを使用して直接データをクエリします。
18
Dataflow と Cloud Data Loss Prevention API を使用して機密データをマスキングします。処理済みのデータを BigQuery に書き込みます。
19
承認済みネットワークは空のままにし、すべてのアプリケーションで Cloud SQL Auth Proxy を使用します。
20
残りのファイルについては、有効期間の長い署名付きURLを生成して新しいTSVファイルを作成します。TSVファイルを複数の小さなファイルに分割し、別々のStorage Transfer Serviceジョブとして並行して送信します。
21
天気予報の日付時刻値でパーティション分割されたBigQueryテーブルを作成します。パーティションの有効期限を30日に設定します。
22
実行中のクエリに基づいてマテリアライズド ビューを作成します。
23
プル サブスクリプションで Pub/Sub の 1 回限りの配信を使用します。
24
ゾーン障害のリスクを軽減するために、ワーカーノードを複数のアベイラビリティゾーンに分散します。
25
Cloud Load Balancing を使用して、同じゾーン内の複数の Compute Engine インスタンスに受信トラフィックを分散します。
Alibaba01
Alibaba01
YUSUKE · 60問 · 1年前Alibaba01
Alibaba01
60問 • 1年前Alibaba02
Alibaba02
YUSUKE · 60問 · 1年前Alibaba02
Alibaba02
60問 • 1年前Alibaba03
Alibaba03
YUSUKE · 60問 · 1年前Alibaba03
Alibaba03
60問 • 1年前Alibaba11
Alibaba11
YUSUKE · 60問 · 1年前Alibaba11
Alibaba11
60問 • 1年前Alibaba12
Alibaba12
YUSUKE · 60問 · 1年前Alibaba12
Alibaba12
60問 • 1年前2023年秋エンベデッド
2023年秋エンベデッド
YUSUKE · 25問 · 1年前2023年秋エンベデッド
2023年秋エンベデッド
25問 • 1年前2022年秋エンベデッド
2022年秋エンベデッド
YUSUKE · 25問 · 1年前2022年秋エンベデッド
2022年秋エンベデッド
25問 • 1年前2021年秋エンベデッド
2021年秋エンベデッド
YUSUKE · 25問 · 1年前2021年秋エンベデッド
2021年秋エンベデッド
25問 • 1年前2020年秋エンベデッド
2020年秋エンベデッド
YUSUKE · 25問 · 1年前2020年秋エンベデッド
2020年秋エンベデッド
25問 • 1年前2019年春エンベデッド
2019年春エンベデッド
YUSUKE · 25問 · 1年前2019年春エンベデッド
2019年春エンベデッド
25問 • 1年前2018年春エンベデッド
2018年春エンベデッド
YUSUKE · 25問 · 1年前2018年春エンベデッド
2018年春エンベデッド
25問 • 1年前2017年春エンベデッド
2017年春エンベデッド
YUSUKE · 25問 · 1年前2017年春エンベデッド
2017年春エンベデッド
25問 • 1年前2024年春システムアーキテクト
2024年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2024年春システムアーキテクト
2024年春システムアーキテクト
25問 • 10ヶ月前2023年春システムアーキテクト
2023年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2023年春システムアーキテクト
2023年春システムアーキテクト
25問 • 10ヶ月前2022年春システムアーキテクト
2022年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2022年春システムアーキテクト
2022年春システムアーキテクト
25問 • 10ヶ月前2021年春システムアーキテクト
2021年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2021年春システムアーキテクト
2021年春システムアーキテクト
25問 • 10ヶ月前2019年秋システムアーキテクト
2019年秋システムアーキテクト
YUSUKE · 25問 · 9ヶ月前2019年秋システムアーキテクト
2019年秋システムアーキテクト
25問 • 9ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
25問 • 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
25問 • 5ヶ月前問題一覧
1
Cloud Data Fusion と Wrangler を使用してデータを正規化し、定期的なジョブを設定します。
2
サブスクリプション再試行ポリシーとして指数バックオフを使用し、最大配信試行回数を 10 に設定して別のトピックへのデッドレターを構成します。
3
Analytics Hub プライベート エクスチェンジを作成し、販売データセットを公開します。
4
これらのクエリに必要なテーブルを両方の Cloud SQL データベースから BigQuery に複製するには、Datastream にストリームを作成します。
5
1. 各部門のアプリケーションのデータ保存用に複数のプロジェクトを作成します。2. 各部門が Cloud Storage バケットと BigQuery データセットを作成できるようにします。3. Dataplex で、各部門をデータレイクと Cloud Storage バケットにマッピングし、BigQuery データセットをゾーンにマッピングします。4. 各部門がデータレイクのデータを所有し、共有できるようにします。
6
トピックの保持ポリシーを 30 日に設定します。
7
Dataflow パイプラインを実行するサービス アカウントに compute.networkUser ロールを割り当てます。
8
Dataflow を使用して、Kafka からデータを読み取り、BigQuery にデータを書き込むパイプラインを作成します。
9
1. BigLake テーブルを定義します。2. Data Catalog でポリシータグの分類を作成します。3. 列にポリシータグを追加します。4. Spark-BigQuery コネクタまたは BigQuery SQL を使用して処理します。
10
新しい Cloud KMS 鍵を作成します。新しい鍵をデフォルトの CMEK 鍵として使用するように設定された新しい Cloud Storage バケットを作成します。鍵を指定せずに、古いバケットから新しいバケットにすべてのオブジェクトをコピーします。
11
1. us-central1 リージョンと us-south1 リージョンにデュアルリージョン Cloud Storage バケットを作成します。2. ターボレプリケーションを有効にします。3. us-central1 リージョンのゾーンで Dataproc クラスタを実行し、同じリージョンのバケットから読み取ります。4. リージョン障害が発生した場合は、Dataproc クラスタを us-south1 リージョンに再デプロイし、同じバケットから読み取ります。
12
PostgreSQL データベースを Cloud SQL for PostgreSQL に移行します。
13
Dataform を使用して、SQL パイプラインを構築、管理、スケジュールします。
14
1. タイムスタンプでパーティション化されたメトリクス テーブルを作成します。2. メトリック テーブルに、センサー テーブルの id 列を指す sensorId 列を作成します。3. 30 秒ごとに INSERT ステートメントを使用して、新しいメトリックをメトリック テーブルに追加します。4. 分析クエリを実行するときに、必要に応じて 2 つのテーブルを結合します。
15
JSON および CSV ファイルを raw ゾーンに移動します。
16
ベーステーブルデータを集計するためのマテリアライズドビューを作成します。フィルター句を使用して、過去1年間のパーティションを指定します。
17
AWS S3バケットデータへのBigQuery Omni接続を設定します。Cloud StorageとS3データ上にBigLakeテーブルを作成し、BigQueryを使用して直接データをクエリします。
18
Dataflow と Cloud Data Loss Prevention API を使用して機密データをマスキングします。処理済みのデータを BigQuery に書き込みます。
19
承認済みネットワークは空のままにし、すべてのアプリケーションで Cloud SQL Auth Proxy を使用します。
20
残りのファイルについては、有効期間の長い署名付きURLを生成して新しいTSVファイルを作成します。TSVファイルを複数の小さなファイルに分割し、別々のStorage Transfer Serviceジョブとして並行して送信します。
21
天気予報の日付時刻値でパーティション分割されたBigQueryテーブルを作成します。パーティションの有効期限を30日に設定します。
22
実行中のクエリに基づいてマテリアライズド ビューを作成します。
23
プル サブスクリプションで Pub/Sub の 1 回限りの配信を使用します。
24
ゾーン障害のリスクを軽減するために、ワーカーノードを複数のアベイラビリティゾーンに分散します。
25
Cloud Load Balancing を使用して、同じゾーン内の複数の Compute Engine インスタンスに受信トラフィックを分散します。