問題一覧
1
プロジェクトの BigQuery 予約を作成します。
2
BigQuery のタイムトラベルを使用して履歴データにアクセスします。
3
15 分間のギャップ期間を持つセッション ウィンドウを使用します。
4
sales_transaction_header 情報を行として保持し、sales_transaction_line 行をネストされた繰り返しフィールドとして保持する sales_transaction テーブルを作成します。
5
古いパイプラインをドレインしてから、新しいパイプラインを開始します。
6
Data Catalog を使用すると、BigQuery データセットと Pub/Sub トピックを自動的にカタログ化できます。カスタムコネクタを使用すると、PostgreSQL テーブルを手動でカタログ化できます。
7
Cloud Composer で BigQueryInsertJobOperator を使用し、再試行パラメータを 3 に設定し、email_on_failure パラメータを true に設定します。
8
1. BigQuery テーブルで、日次パーティション データ サイズが 2 倍になっている重複行がないか確認します。2. BigQuery 監査ログでジョブ ID を見つけます。3. Cloud Monitoring を使用して、特定された Dataflow ジョブの開始日時とパイプライン コードのバージョンを確認します。4. 複数のパイプラインがテーブルにデータを取り込む場合は、最新のバージョンを除くすべてのバージョンを停止します。
9
公開設定で「gdpr」タグテンプレートを作成します。機密データを含むテーブルのHRグループにbigquery.dataViewerロールを割り当てます。
10
1. Cloud Build を使用して、DAG のコードを開発インスタンスの Cloud Storage バケットにコピーし、DAG テストを実行します。2. テストに合格したら、Cloud Build を使用して、コードを本番環境インスタンスのバケットにコピーします。
11
顧客管理の暗号鍵(CMEK)を使用して新しい BigQuery テーブルを作成し、古い BigQuery テーブルからデータを移行します。
12
ORC ファイルを Cloud Storage にコピーし、データ サイエンティスト チーム用の外部 BigQuery テーブルを作成します。
13
--region フラグを使用してワーカー リージョンを指定します。
14
Dataflow パイプラインのホッピング ウィンドウを使用してデータをグループ化し、集計されたデータを Memorystore に書き込みます。
15
Dataflow の DoFn コード内の例外処理ブロックを使用して、変換に失敗したメッセージをサイド出力経由で新しい Pub/Sub トピックに push します。Cloud Monitoring を使用して、この新しいトピックの topic/num_unacked_messages_by_region 指標をモニタリングします。
16
アナリストに共有データセットのBigQueryデータ閲覧者ロールを付与します。アナリストごとにデータセットを作成し、各アナリストに割り当てられたデータセットのデータセットレベルでBigQueryデータ編集者ロールを付与します。
17
ウォーターマークを使用して、予想されるデータ到着時間枠を定義します。遅れたデータは到着時に許可します。
18
クエリでタイムスタンプ範囲フィルターを使用して、特定の範囲の顧客データを取得します。
19
BigQuery ストレージ書き込み API を使用して、ターゲットの BigQuery テーブルがリージョン別であることを確認します。
20
外部テーブルをBigLakeテーブルにアップグレードします。テーブルのメタデータキャッシュを有効にします。
21
データをBigtableに保存します。センサーIDとタイムスタンプを連結し、行キーとして使用します。BigQueryへのエクスポートを毎日実行します。
22
1. アーカイブ ストレージ クラスを使用して、Cloud Storage バケットに BigQuery エクスポートを実行します。2. バケットにロックされた保持ポリシーを設定します。3. エクスポートされたファイルに BigQuery 外部テーブルを作成します。
23
データを Cloud Storage に移動します。ジョブは Dataproc で実行します。
24
マーケティング チーム向けに、自動スケーリングなしで 500 スロットのベースラインを持つ BigQuery 予約を作成し、それに応じて請求します。
25
Dataplex を使用して、データを管理し、データ系統を追跡し、データ品質の検証を実行します。
Alibaba01
Alibaba01
YUSUKE · 60問 · 1年前Alibaba01
Alibaba01
60問 • 1年前Alibaba02
Alibaba02
YUSUKE · 60問 · 1年前Alibaba02
Alibaba02
60問 • 1年前Alibaba03
Alibaba03
YUSUKE · 60問 · 1年前Alibaba03
Alibaba03
60問 • 1年前Alibaba11
Alibaba11
YUSUKE · 60問 · 1年前Alibaba11
Alibaba11
60問 • 1年前Alibaba12
Alibaba12
YUSUKE · 60問 · 1年前Alibaba12
Alibaba12
60問 • 1年前2023年秋エンベデッド
2023年秋エンベデッド
YUSUKE · 25問 · 1年前2023年秋エンベデッド
2023年秋エンベデッド
25問 • 1年前2022年秋エンベデッド
2022年秋エンベデッド
YUSUKE · 25問 · 1年前2022年秋エンベデッド
2022年秋エンベデッド
25問 • 1年前2021年秋エンベデッド
2021年秋エンベデッド
YUSUKE · 25問 · 1年前2021年秋エンベデッド
2021年秋エンベデッド
25問 • 1年前2020年秋エンベデッド
2020年秋エンベデッド
YUSUKE · 25問 · 1年前2020年秋エンベデッド
2020年秋エンベデッド
25問 • 1年前2019年春エンベデッド
2019年春エンベデッド
YUSUKE · 25問 · 1年前2019年春エンベデッド
2019年春エンベデッド
25問 • 1年前2018年春エンベデッド
2018年春エンベデッド
YUSUKE · 25問 · 1年前2018年春エンベデッド
2018年春エンベデッド
25問 • 1年前2017年春エンベデッド
2017年春エンベデッド
YUSUKE · 25問 · 1年前2017年春エンベデッド
2017年春エンベデッド
25問 • 1年前2024年春システムアーキテクト
2024年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2024年春システムアーキテクト
2024年春システムアーキテクト
25問 • 10ヶ月前2023年春システムアーキテクト
2023年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2023年春システムアーキテクト
2023年春システムアーキテクト
25問 • 10ヶ月前2022年春システムアーキテクト
2022年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2022年春システムアーキテクト
2022年春システムアーキテクト
25問 • 10ヶ月前2021年春システムアーキテクト
2021年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2021年春システムアーキテクト
2021年春システムアーキテクト
25問 • 10ヶ月前2019年秋システムアーキテクト
2019年秋システムアーキテクト
YUSUKE · 25問 · 9ヶ月前2019年秋システムアーキテクト
2019年秋システムアーキテクト
25問 • 9ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
25問 • 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
25問 • 5ヶ月前問題一覧
1
プロジェクトの BigQuery 予約を作成します。
2
BigQuery のタイムトラベルを使用して履歴データにアクセスします。
3
15 分間のギャップ期間を持つセッション ウィンドウを使用します。
4
sales_transaction_header 情報を行として保持し、sales_transaction_line 行をネストされた繰り返しフィールドとして保持する sales_transaction テーブルを作成します。
5
古いパイプラインをドレインしてから、新しいパイプラインを開始します。
6
Data Catalog を使用すると、BigQuery データセットと Pub/Sub トピックを自動的にカタログ化できます。カスタムコネクタを使用すると、PostgreSQL テーブルを手動でカタログ化できます。
7
Cloud Composer で BigQueryInsertJobOperator を使用し、再試行パラメータを 3 に設定し、email_on_failure パラメータを true に設定します。
8
1. BigQuery テーブルで、日次パーティション データ サイズが 2 倍になっている重複行がないか確認します。2. BigQuery 監査ログでジョブ ID を見つけます。3. Cloud Monitoring を使用して、特定された Dataflow ジョブの開始日時とパイプライン コードのバージョンを確認します。4. 複数のパイプラインがテーブルにデータを取り込む場合は、最新のバージョンを除くすべてのバージョンを停止します。
9
公開設定で「gdpr」タグテンプレートを作成します。機密データを含むテーブルのHRグループにbigquery.dataViewerロールを割り当てます。
10
1. Cloud Build を使用して、DAG のコードを開発インスタンスの Cloud Storage バケットにコピーし、DAG テストを実行します。2. テストに合格したら、Cloud Build を使用して、コードを本番環境インスタンスのバケットにコピーします。
11
顧客管理の暗号鍵(CMEK)を使用して新しい BigQuery テーブルを作成し、古い BigQuery テーブルからデータを移行します。
12
ORC ファイルを Cloud Storage にコピーし、データ サイエンティスト チーム用の外部 BigQuery テーブルを作成します。
13
--region フラグを使用してワーカー リージョンを指定します。
14
Dataflow パイプラインのホッピング ウィンドウを使用してデータをグループ化し、集計されたデータを Memorystore に書き込みます。
15
Dataflow の DoFn コード内の例外処理ブロックを使用して、変換に失敗したメッセージをサイド出力経由で新しい Pub/Sub トピックに push します。Cloud Monitoring を使用して、この新しいトピックの topic/num_unacked_messages_by_region 指標をモニタリングします。
16
アナリストに共有データセットのBigQueryデータ閲覧者ロールを付与します。アナリストごとにデータセットを作成し、各アナリストに割り当てられたデータセットのデータセットレベルでBigQueryデータ編集者ロールを付与します。
17
ウォーターマークを使用して、予想されるデータ到着時間枠を定義します。遅れたデータは到着時に許可します。
18
クエリでタイムスタンプ範囲フィルターを使用して、特定の範囲の顧客データを取得します。
19
BigQuery ストレージ書き込み API を使用して、ターゲットの BigQuery テーブルがリージョン別であることを確認します。
20
外部テーブルをBigLakeテーブルにアップグレードします。テーブルのメタデータキャッシュを有効にします。
21
データをBigtableに保存します。センサーIDとタイムスタンプを連結し、行キーとして使用します。BigQueryへのエクスポートを毎日実行します。
22
1. アーカイブ ストレージ クラスを使用して、Cloud Storage バケットに BigQuery エクスポートを実行します。2. バケットにロックされた保持ポリシーを設定します。3. エクスポートされたファイルに BigQuery 外部テーブルを作成します。
23
データを Cloud Storage に移動します。ジョブは Dataproc で実行します。
24
マーケティング チーム向けに、自動スケーリングなしで 500 スロットのベースラインを持つ BigQuery 予約を作成し、それに応じて請求します。
25
Dataplex を使用して、データを管理し、データ系統を追跡し、データ品質の検証を実行します。