問題一覧
1
ネストされたフィールドと繰り返しフィールドを持つ、非正規化された追加専用のモデルを作成します。取り込みタイムスタンプを使用して、履歴データを追跡します。
2
SQL パイプラインを更新してバッチ クエリとして実行し、アドホック クエリをインタラクティブ クエリ ジョブとして実行します。
3
1. 顧客データ レイクのデータ エンジニア グループに dataplex.dataOwner ロールを付与します。2. 顧客キュレーションゾーンの分析ユーザー グループに dataplex.dataReader ロールを付与します。
4
デュアルリージョンの Cloud Storage バケットを採用し、アーキテクチャでターボ レプリケーションを有効にします。
5
1. ターボ レプリケーションが有効になっているデュアルリージョンの Cloud Storage バケットを使用します。2. Cloud Monitoring を使用して Dataflow 指標をモニタリングし、いつ停止が発生したかを判断します。3. 確認済みのメッセージを回復するために、サブスクリプションを 60 分前まで遡って検索します。4. セカンダリ リージョンで Dataflow ジョブを開始します。
6
各チームにAnalytics Hubでデータを公開するよう依頼し、他のチームにはデータをサブスクライブするよう指示します。
7
テストに使用するデータとモデルのトレーニングに使用するデータを明確にします。
8
Cloud Data Loss Prevention を使用してデータセット内の各テーブルに対して詳細な検査ジョブを作成し、STREET_ADDRESS infoType を含む検査テンプレートを作成します。
9
1. ドメインごとにレイクを1つ作成します。各レイク内に、チームごとにゾーンを1つ作成します。2. 各チームによって作成された各 BigQuery データセットをアセットとしてそれぞれのゾーンにアタッチします。3. 各ドメインに独自のレイクのデータ資産を管理するよう指示します。
10
8 vCPU 未満の行を削除するフィルターを使用してビューを作成し、UNNEST 演算子を使用します。
11
Autoclass ストレージ クラス機能を使用してバケットを作成します。
12
1. Cloud DLP の recordTransformations を使用してメール フィールドを匿名化するパイプラインを作成し、FFX を匿名化変換タイプとして、形式保持暗号化を使用します。2. 予約とユーザー プロファイル データを BigQuery テーブルに読み込みます。
13
保持ポリシーを設定します。保持ポリシーをロックします。
14
BigQuery にデータを保存するときに、認証済み暗号化と関連データ (AEAD) BigQuery 関数を実装します。
15
サブネットワークでプライベート Google アクセスが有効になっていることを確認してください。Dataflow は内部 IP アドレスのみで使用してください。
16
パイプライン コードを変更し、融合を防ぐための Reshuffle ステップを導入します。
17
Oracle から BigQuery へのデータストリーム サービスを作成し、同じ VPC ネットワークへのプライベート接続構成と BigQuery への接続プロファイルを使用します。
18
1. Airflow REST API を有効にし、Cloud Function インスタンスをトリガーするための Cloud Storage 通知を設定します。2. Private Service Connect (PSC) エンドポイントを作成します。3. PSC エンドポイントを介して Cloud Composer クラスタに接続する Cloud Functions を記述します。
19
Autoclass が有効になっている Cloud Storage バケットを作成します。
20
Cloud Data Fusion を使用して、ファイルを Cloud Storage に移動します。
21
Dataprep を使用してデータをクリーンアップし、結果を BigQuery に書き込みます。Connected Sheets を使用してデータを分析します。
22
各プロジェクトごとに1つずつ、合計2つの予約を作成します。SLAプロジェクトでは、ベースラインとして300スロットのEnterprise Editionを使用し、最大500スロットまでの自動スケーリングを有効にします。アドホックプロジェクトでは、オンデマンド課金を設定します。
23
FastExport 接続で Java Database Connectivity (JDBC) ドライバーを使用して、BigQuery データ転送サービスを使用します。
24
オンプレミスのHSMで暗号化鍵を作成し、Cloud External Key Manager(Cloud EKM)鍵にリンクします。BigQueryリソースの作成時に、作成したCloud KMS鍵を関連付けます。
25
各処理ステップの後に Reshuffle 操作を挿入し、Dataflow コンソールで実行の詳細を監視します。
Alibaba01
Alibaba01
YUSUKE · 60問 · 1年前Alibaba01
Alibaba01
60問 • 1年前Alibaba02
Alibaba02
YUSUKE · 60問 · 1年前Alibaba02
Alibaba02
60問 • 1年前Alibaba03
Alibaba03
YUSUKE · 60問 · 1年前Alibaba03
Alibaba03
60問 • 1年前Alibaba11
Alibaba11
YUSUKE · 60問 · 1年前Alibaba11
Alibaba11
60問 • 1年前Alibaba12
Alibaba12
YUSUKE · 60問 · 1年前Alibaba12
Alibaba12
60問 • 1年前2023年秋エンベデッド
2023年秋エンベデッド
YUSUKE · 25問 · 1年前2023年秋エンベデッド
2023年秋エンベデッド
25問 • 1年前2022年秋エンベデッド
2022年秋エンベデッド
YUSUKE · 25問 · 1年前2022年秋エンベデッド
2022年秋エンベデッド
25問 • 1年前2021年秋エンベデッド
2021年秋エンベデッド
YUSUKE · 25問 · 1年前2021年秋エンベデッド
2021年秋エンベデッド
25問 • 1年前2020年秋エンベデッド
2020年秋エンベデッド
YUSUKE · 25問 · 1年前2020年秋エンベデッド
2020年秋エンベデッド
25問 • 1年前2019年春エンベデッド
2019年春エンベデッド
YUSUKE · 25問 · 1年前2019年春エンベデッド
2019年春エンベデッド
25問 • 1年前2018年春エンベデッド
2018年春エンベデッド
YUSUKE · 25問 · 1年前2018年春エンベデッド
2018年春エンベデッド
25問 • 1年前2017年春エンベデッド
2017年春エンベデッド
YUSUKE · 25問 · 1年前2017年春エンベデッド
2017年春エンベデッド
25問 • 1年前2024年春システムアーキテクト
2024年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2024年春システムアーキテクト
2024年春システムアーキテクト
25問 • 10ヶ月前2023年春システムアーキテクト
2023年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2023年春システムアーキテクト
2023年春システムアーキテクト
25問 • 10ヶ月前2022年春システムアーキテクト
2022年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2022年春システムアーキテクト
2022年春システムアーキテクト
25問 • 10ヶ月前2021年春システムアーキテクト
2021年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2021年春システムアーキテクト
2021年春システムアーキテクト
25問 • 10ヶ月前2019年秋システムアーキテクト
2019年秋システムアーキテクト
YUSUKE · 25問 · 9ヶ月前2019年秋システムアーキテクト
2019年秋システムアーキテクト
25問 • 9ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
25問 • 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
25問 • 5ヶ月前問題一覧
1
ネストされたフィールドと繰り返しフィールドを持つ、非正規化された追加専用のモデルを作成します。取り込みタイムスタンプを使用して、履歴データを追跡します。
2
SQL パイプラインを更新してバッチ クエリとして実行し、アドホック クエリをインタラクティブ クエリ ジョブとして実行します。
3
1. 顧客データ レイクのデータ エンジニア グループに dataplex.dataOwner ロールを付与します。2. 顧客キュレーションゾーンの分析ユーザー グループに dataplex.dataReader ロールを付与します。
4
デュアルリージョンの Cloud Storage バケットを採用し、アーキテクチャでターボ レプリケーションを有効にします。
5
1. ターボ レプリケーションが有効になっているデュアルリージョンの Cloud Storage バケットを使用します。2. Cloud Monitoring を使用して Dataflow 指標をモニタリングし、いつ停止が発生したかを判断します。3. 確認済みのメッセージを回復するために、サブスクリプションを 60 分前まで遡って検索します。4. セカンダリ リージョンで Dataflow ジョブを開始します。
6
各チームにAnalytics Hubでデータを公開するよう依頼し、他のチームにはデータをサブスクライブするよう指示します。
7
テストに使用するデータとモデルのトレーニングに使用するデータを明確にします。
8
Cloud Data Loss Prevention を使用してデータセット内の各テーブルに対して詳細な検査ジョブを作成し、STREET_ADDRESS infoType を含む検査テンプレートを作成します。
9
1. ドメインごとにレイクを1つ作成します。各レイク内に、チームごとにゾーンを1つ作成します。2. 各チームによって作成された各 BigQuery データセットをアセットとしてそれぞれのゾーンにアタッチします。3. 各ドメインに独自のレイクのデータ資産を管理するよう指示します。
10
8 vCPU 未満の行を削除するフィルターを使用してビューを作成し、UNNEST 演算子を使用します。
11
Autoclass ストレージ クラス機能を使用してバケットを作成します。
12
1. Cloud DLP の recordTransformations を使用してメール フィールドを匿名化するパイプラインを作成し、FFX を匿名化変換タイプとして、形式保持暗号化を使用します。2. 予約とユーザー プロファイル データを BigQuery テーブルに読み込みます。
13
保持ポリシーを設定します。保持ポリシーをロックします。
14
BigQuery にデータを保存するときに、認証済み暗号化と関連データ (AEAD) BigQuery 関数を実装します。
15
サブネットワークでプライベート Google アクセスが有効になっていることを確認してください。Dataflow は内部 IP アドレスのみで使用してください。
16
パイプライン コードを変更し、融合を防ぐための Reshuffle ステップを導入します。
17
Oracle から BigQuery へのデータストリーム サービスを作成し、同じ VPC ネットワークへのプライベート接続構成と BigQuery への接続プロファイルを使用します。
18
1. Airflow REST API を有効にし、Cloud Function インスタンスをトリガーするための Cloud Storage 通知を設定します。2. Private Service Connect (PSC) エンドポイントを作成します。3. PSC エンドポイントを介して Cloud Composer クラスタに接続する Cloud Functions を記述します。
19
Autoclass が有効になっている Cloud Storage バケットを作成します。
20
Cloud Data Fusion を使用して、ファイルを Cloud Storage に移動します。
21
Dataprep を使用してデータをクリーンアップし、結果を BigQuery に書き込みます。Connected Sheets を使用してデータを分析します。
22
各プロジェクトごとに1つずつ、合計2つの予約を作成します。SLAプロジェクトでは、ベースラインとして300スロットのEnterprise Editionを使用し、最大500スロットまでの自動スケーリングを有効にします。アドホックプロジェクトでは、オンデマンド課金を設定します。
23
FastExport 接続で Java Database Connectivity (JDBC) ドライバーを使用して、BigQuery データ転送サービスを使用します。
24
オンプレミスのHSMで暗号化鍵を作成し、Cloud External Key Manager(Cloud EKM)鍵にリンクします。BigQueryリソースの作成時に、作成したCloud KMS鍵を関連付けます。
25
各処理ステップの後に Reshuffle 操作を挿入し、Dataflow コンソールで実行の詳細を監視します。