PDE_page5
問題一覧
1
Redis データベースの RDB バックアップを作成し、gsutil ユーティリティを使用して RDB ファイルを Cloud Storage バケットにコピーしてから、RDB ファイルを Memorystore for Redis インスタンスにインポートします。
2
オンプレミスデータ用の Transfer Service を使用して、オンプレミス環境から Cloud Storage にデータをコピーします。BigQuery Data Transfer Service を使用して、BigQuery にデータをインポートします。
3
GPU ハードウェアアクセラレータを搭載した VM を使用してモデルをトレーニングします。
4
Pub/Sub トピックを作成し、すべてのベンダーデータをそれに送信します。Dataflow を使用して Pub/Sub データを処理およびサニタイズし、BigQuery にストリーミングします。
5
Cloud Build を使用して、Terraform ビルドを使用してインフラストラクチャをプロビジョニングし、最新のコンテナイメージで起動するジョブをスケジュールします。
6
Dataflow を使用して、BigQuery をシンクとしてプログラムでロングテールデータポイントと外れ値データポイントを特定します。
7
create_date でテーブルデータをパーティション分割し、location_id および device_version でテーブルデータをクラスタリングします。
8
Pub/Sub トピックに投票を書き込み、Dataflow パイプラインを介して Bigtable と BigQuery の両方にロードします。リアルタイムの結果については Bigtable にクエリを実行し、後で分析するには BigQuery にクエリを実行します。投票が終了したら、Bigtable インスタンスをシャットダウンします。
9
パッケージ追跡 ID 列で BigQuery にクラスタリングを実装します。
10
1. データ製品ごとに Dataplex 仮想レイクを作成し、ランディング、raw、およびキュレーションされたデータ用に複数のゾーンを作成します。 2. データエンジニアリングチームに、データ製品に割り当てられた仮想レイクへのフルアクセスを提供します。
11
Cloud Storage デュアルリージョンまたはマルチリージョンバケットへのテーブルの毎日のエクスポートをスケジュールします。
12
Dataflow ネットワークタグの TCP ポート 12345 および 12346 でトラフィックを許可するようにファイアウォールルールが設定されているかどうかを確認します。
13
country フィールドと username フィールドでテーブルをクラスタリングします。
14
開発環境に Standard Tier Memorystore for Redis インスタンスを作成します。force-data-loss データ保護モードを使用して手動フェイルオーバーを開始します。
15
共有する必要があるテーブルを CMEK を使用しないデータセットにコピーします。このデータセットの Analytics Hub リストを作成します。
16
プロジェクト A とプロジェクト B の間で VPC ネットワークピアリングを設定します。Cloud SQL データベースへのプロキシサーバーとして機能するために、ピアリングされたサブネット上のプロジェクト B に外部 IP アドレスのない Compute Engine インスタンスを作成します。
17
2 つの個別の承認済みデータセットを作成します。1 つはデータ分析チーム用、もう 1 つはカスタマーサポートチーム用です。, ポリシータグタクソノミでアクセス制御を適用します。
18
新しいプライマリインスタンスから 2 つの新しい読み取りレプリカを作成します。1 つはリージョン 3 に、もう 1 つは新しいリージョンにあります。
19
リスクのあるタスクを担当するオペレーターの on_failure_callback パラメーターに、通知ロジックを含む関数を割り当てます。
20
Datastream を使用して、オンプレミスの MySQL データベースから BigQuery にデータを複製します。オンプレミスデータセンターと Google Cloud の間に Cloud Interconnect を設定します。接続方法としてプライベート接続を使用し、Datastream 接続構成に VPC ネットワーク内の IP アドレス範囲を割り当てます。Datastream で接続プロファイルをセットアップするときは、暗号化タイプとして Server-only を使用します。
21
BigQuery Omni 機能と BigLake テーブルを使用して、Azure と AWS のファイルをクエリします。
22
データサイエンスチームに Dataprep へのアクセスを提供して、Cloud Storage 内のデータを準備、検証、探索できるようにします。
23
Dataform アサーションをコードに組み込みます。
24
広告部門がメッセージの消費時に遅延を引き起こしています。これを修正するには、広告部門と協力してください。
25
データを BigQuery に移行します。BigQuery でデータの書き込みと読み取りを行うように Spark パイプラインをリファクタリングし、Dataproc Serverless で実行します。
26
プロジェクト A の周囲に境界線を設けて、組織で VPC Service Controls を構成します。
27
Standard Tier で新しい Memorystore for Redis インスタンスを作成します。容量を 5 GB に設定し、複数の読み取りレプリカを作成します。古いインスタンスを削除します。
28
デプロイの 2 日前に Pub/Sub スナップショットキャプチャを使用します。, タイムスタンプ付きの Pub/Sub Seek を使用します。
29
視覚化クエリに対して allow_non_incremental_definition オプションを true に設定してマテリアライズドビューを作成します。max_staleness パラメーターを 4 時間に、enable_refresh パラメーターを true に指定します。データ視覚化ツールでマテリアライズドビューを参照します。
30
Dataproc を使用して Hadoop クラスターを Google Cloud に移行し、Cloud Storage を使用して HDFS ユースケースを処理します。Cloud Composer でパイプラインを調整します。
31
ワーカーの最大数を増やし、ワーカーの同時実行性を減らします。, Airflow ワーカーが使用できるメモリを増やします。
32
constraints/gcp.resourceLocations 組織ポリシーの制約を in:europe-west3-locations に設定します。
33
使用可能な管理リソースチャートを使用して、スロットの使用方法とジョブの経時的なパフォーマンスを確認します。INFORMATION_SCHEMA でクエリを実行して、クエリのパフォーマンスを確認します。
34
1. 分析のために履歴データを BigQuery に保存します。 2. Cloud SQL テーブルに、製品が変更されるたびに製品の最後の状態を保存します。 3. 最後の状態データを Cloud SQL から API に直接提供します。
35
1. Dataproc および BigQuery オペレーターを使用して、Cloud Composer に順次タスクを含む Apache Airflow 有向非巡回グラフ (DAG) を作成します。 2. パイプラインを通過する必要があるテーブルごとに個別の DAG を作成します。 3. Cloud Storage オブジェクトトリガーを使用して、DAG をトリガーする Cloud Function を起動します。
36
リージョン A に高可用性 Cloud SQL インスタンスを作成します。リージョン B に高可用性読み取りレプリカを作成します。複数のリージョンにカスケード読み取りレプリカを作成して、読み取りワークロードをスケールアップします。リージョン A がダウンしているときは、リージョン B の読み取りレプリカを昇格させます。
37
Python 用の Apache Beam SDK を介して Dataflow でパイプラインを作成し、コード内でストリーミング、バッチ処理、Cloud DLP の個別のオプションをカスタマイズします。データシンクとして BigQuery を選択します。
38
データを BigQuery に保存しながら、Authenticated Encryption with Associated Data (AEAD) BigQuery 関数を実装します。
39
SQL パイプラインをバッチクエリとして実行し、アドホッククエリをインタラクティブクエリジョブとして実行するように更新します。
40
1. 顧客データレイクのデータエンジニアグループに dataplex.dataOwner 役割を付与します。 2. 顧客キュレーションゾーンの分析ユーザーグループに dataplex.dataReader 役割を付与します。
41
デュアルリージョンの Cloud Storage バケットを採用し、アーキテクチャでターボレプリケーションを有効にします。
42
1. ターボレプリケーションが有効になっているデュアルリージョンの Cloud Storage バケットを使用します。 2. Cloud Monitoring で Dataflow メトリックを監視して、停止が発生した時期を特定します。 3. サブスクリプションを 60 分前に戻して、承認されたメッセージを回復します。 4. セカンダリリージョンで Dataflow ジョブを開始します。
43
SELECT * EXCEPT(price, square_feet, feature1), price/square_feet AS price_per_sqft, IFNULL(feature1, 0) AS feature1_cleaned FROM training_data;
44
各チームに Analytics Hub でデータを公開するように依頼します。他のチームにサブスクライブするように指示します。
45
テストに使用するデータとモデルのトレーニングに使用するデータを区切ります。
46
Cloud Data Loss Prevention を使用してデータセット内の各テーブルで詳細検査ジョブを作成し、STREET_ADDRESS infoType を含む検査テンプレートを作成します。
47
1. ドメインごとに 1 つのレイクを作成します。各レイク内に、チームごとに 1 つのゾーンを作成します。 2. 個々のチームによって作成された BigQuery データセットのそれぞれを、対応するゾーンにアセットとして添付します。 3. 各ドメインに独自のレイクのデータアセットを管理するように指示します。
48
vCPU が 8 未満の行を削除するフィルターを使用してビューを作成し、UNNEST 演算子を使用します。
49
Autoclass ストレージクラス機能を使用してバケットを作成します。
50
1. 非特定化変換タイプとして FFX を使用したフォーマット保持暗号化を使用して、Cloud DLP の recordTransformations を使用して email フィールドを非特定化するパイプラインを作成します。 2. 予約データとユーザープロファイルデータを BigQuery テーブルにロードします。
PDE_page4
PDE_page4
ユーザ名非公開 · 50問 · 1年前PDE_page4
PDE_page4
50問 • 1年前PDE_page6
PDE_page6
ユーザ名非公開 · 50問 · 1年前PDE_page6
PDE_page6
50問 • 1年前PDE_page7
PDE_page7
ユーザ名非公開 · 19問 · 1年前PDE_page7
PDE_page7
19問 • 1年前PMLE04
PMLE04
ユーザ名非公開 · 50問 · 8ヶ月前PMLE04
PMLE04
50問 • 8ヶ月前PMLE05
PMLE05
ユーザ名非公開 · 50問 · 8ヶ月前PMLE05
PMLE05
50問 • 8ヶ月前PMLE06
PMLE06
ユーザ名非公開 · 50問 · 8ヶ月前PMLE06
PMLE06
50問 • 8ヶ月前PMLE07
PMLE07
ユーザ名非公開 · 39問 · 8ヶ月前PMLE07
PMLE07
39問 • 8ヶ月前問題一覧
1
Redis データベースの RDB バックアップを作成し、gsutil ユーティリティを使用して RDB ファイルを Cloud Storage バケットにコピーしてから、RDB ファイルを Memorystore for Redis インスタンスにインポートします。
2
オンプレミスデータ用の Transfer Service を使用して、オンプレミス環境から Cloud Storage にデータをコピーします。BigQuery Data Transfer Service を使用して、BigQuery にデータをインポートします。
3
GPU ハードウェアアクセラレータを搭載した VM を使用してモデルをトレーニングします。
4
Pub/Sub トピックを作成し、すべてのベンダーデータをそれに送信します。Dataflow を使用して Pub/Sub データを処理およびサニタイズし、BigQuery にストリーミングします。
5
Cloud Build を使用して、Terraform ビルドを使用してインフラストラクチャをプロビジョニングし、最新のコンテナイメージで起動するジョブをスケジュールします。
6
Dataflow を使用して、BigQuery をシンクとしてプログラムでロングテールデータポイントと外れ値データポイントを特定します。
7
create_date でテーブルデータをパーティション分割し、location_id および device_version でテーブルデータをクラスタリングします。
8
Pub/Sub トピックに投票を書き込み、Dataflow パイプラインを介して Bigtable と BigQuery の両方にロードします。リアルタイムの結果については Bigtable にクエリを実行し、後で分析するには BigQuery にクエリを実行します。投票が終了したら、Bigtable インスタンスをシャットダウンします。
9
パッケージ追跡 ID 列で BigQuery にクラスタリングを実装します。
10
1. データ製品ごとに Dataplex 仮想レイクを作成し、ランディング、raw、およびキュレーションされたデータ用に複数のゾーンを作成します。 2. データエンジニアリングチームに、データ製品に割り当てられた仮想レイクへのフルアクセスを提供します。
11
Cloud Storage デュアルリージョンまたはマルチリージョンバケットへのテーブルの毎日のエクスポートをスケジュールします。
12
Dataflow ネットワークタグの TCP ポート 12345 および 12346 でトラフィックを許可するようにファイアウォールルールが設定されているかどうかを確認します。
13
country フィールドと username フィールドでテーブルをクラスタリングします。
14
開発環境に Standard Tier Memorystore for Redis インスタンスを作成します。force-data-loss データ保護モードを使用して手動フェイルオーバーを開始します。
15
共有する必要があるテーブルを CMEK を使用しないデータセットにコピーします。このデータセットの Analytics Hub リストを作成します。
16
プロジェクト A とプロジェクト B の間で VPC ネットワークピアリングを設定します。Cloud SQL データベースへのプロキシサーバーとして機能するために、ピアリングされたサブネット上のプロジェクト B に外部 IP アドレスのない Compute Engine インスタンスを作成します。
17
2 つの個別の承認済みデータセットを作成します。1 つはデータ分析チーム用、もう 1 つはカスタマーサポートチーム用です。, ポリシータグタクソノミでアクセス制御を適用します。
18
新しいプライマリインスタンスから 2 つの新しい読み取りレプリカを作成します。1 つはリージョン 3 に、もう 1 つは新しいリージョンにあります。
19
リスクのあるタスクを担当するオペレーターの on_failure_callback パラメーターに、通知ロジックを含む関数を割り当てます。
20
Datastream を使用して、オンプレミスの MySQL データベースから BigQuery にデータを複製します。オンプレミスデータセンターと Google Cloud の間に Cloud Interconnect を設定します。接続方法としてプライベート接続を使用し、Datastream 接続構成に VPC ネットワーク内の IP アドレス範囲を割り当てます。Datastream で接続プロファイルをセットアップするときは、暗号化タイプとして Server-only を使用します。
21
BigQuery Omni 機能と BigLake テーブルを使用して、Azure と AWS のファイルをクエリします。
22
データサイエンスチームに Dataprep へのアクセスを提供して、Cloud Storage 内のデータを準備、検証、探索できるようにします。
23
Dataform アサーションをコードに組み込みます。
24
広告部門がメッセージの消費時に遅延を引き起こしています。これを修正するには、広告部門と協力してください。
25
データを BigQuery に移行します。BigQuery でデータの書き込みと読み取りを行うように Spark パイプラインをリファクタリングし、Dataproc Serverless で実行します。
26
プロジェクト A の周囲に境界線を設けて、組織で VPC Service Controls を構成します。
27
Standard Tier で新しい Memorystore for Redis インスタンスを作成します。容量を 5 GB に設定し、複数の読み取りレプリカを作成します。古いインスタンスを削除します。
28
デプロイの 2 日前に Pub/Sub スナップショットキャプチャを使用します。, タイムスタンプ付きの Pub/Sub Seek を使用します。
29
視覚化クエリに対して allow_non_incremental_definition オプションを true に設定してマテリアライズドビューを作成します。max_staleness パラメーターを 4 時間に、enable_refresh パラメーターを true に指定します。データ視覚化ツールでマテリアライズドビューを参照します。
30
Dataproc を使用して Hadoop クラスターを Google Cloud に移行し、Cloud Storage を使用して HDFS ユースケースを処理します。Cloud Composer でパイプラインを調整します。
31
ワーカーの最大数を増やし、ワーカーの同時実行性を減らします。, Airflow ワーカーが使用できるメモリを増やします。
32
constraints/gcp.resourceLocations 組織ポリシーの制約を in:europe-west3-locations に設定します。
33
使用可能な管理リソースチャートを使用して、スロットの使用方法とジョブの経時的なパフォーマンスを確認します。INFORMATION_SCHEMA でクエリを実行して、クエリのパフォーマンスを確認します。
34
1. 分析のために履歴データを BigQuery に保存します。 2. Cloud SQL テーブルに、製品が変更されるたびに製品の最後の状態を保存します。 3. 最後の状態データを Cloud SQL から API に直接提供します。
35
1. Dataproc および BigQuery オペレーターを使用して、Cloud Composer に順次タスクを含む Apache Airflow 有向非巡回グラフ (DAG) を作成します。 2. パイプラインを通過する必要があるテーブルごとに個別の DAG を作成します。 3. Cloud Storage オブジェクトトリガーを使用して、DAG をトリガーする Cloud Function を起動します。
36
リージョン A に高可用性 Cloud SQL インスタンスを作成します。リージョン B に高可用性読み取りレプリカを作成します。複数のリージョンにカスケード読み取りレプリカを作成して、読み取りワークロードをスケールアップします。リージョン A がダウンしているときは、リージョン B の読み取りレプリカを昇格させます。
37
Python 用の Apache Beam SDK を介して Dataflow でパイプラインを作成し、コード内でストリーミング、バッチ処理、Cloud DLP の個別のオプションをカスタマイズします。データシンクとして BigQuery を選択します。
38
データを BigQuery に保存しながら、Authenticated Encryption with Associated Data (AEAD) BigQuery 関数を実装します。
39
SQL パイプラインをバッチクエリとして実行し、アドホッククエリをインタラクティブクエリジョブとして実行するように更新します。
40
1. 顧客データレイクのデータエンジニアグループに dataplex.dataOwner 役割を付与します。 2. 顧客キュレーションゾーンの分析ユーザーグループに dataplex.dataReader 役割を付与します。
41
デュアルリージョンの Cloud Storage バケットを採用し、アーキテクチャでターボレプリケーションを有効にします。
42
1. ターボレプリケーションが有効になっているデュアルリージョンの Cloud Storage バケットを使用します。 2. Cloud Monitoring で Dataflow メトリックを監視して、停止が発生した時期を特定します。 3. サブスクリプションを 60 分前に戻して、承認されたメッセージを回復します。 4. セカンダリリージョンで Dataflow ジョブを開始します。
43
SELECT * EXCEPT(price, square_feet, feature1), price/square_feet AS price_per_sqft, IFNULL(feature1, 0) AS feature1_cleaned FROM training_data;
44
各チームに Analytics Hub でデータを公開するように依頼します。他のチームにサブスクライブするように指示します。
45
テストに使用するデータとモデルのトレーニングに使用するデータを区切ります。
46
Cloud Data Loss Prevention を使用してデータセット内の各テーブルで詳細検査ジョブを作成し、STREET_ADDRESS infoType を含む検査テンプレートを作成します。
47
1. ドメインごとに 1 つのレイクを作成します。各レイク内に、チームごとに 1 つのゾーンを作成します。 2. 個々のチームによって作成された BigQuery データセットのそれぞれを、対応するゾーンにアセットとして添付します。 3. 各ドメインに独自のレイクのデータアセットを管理するように指示します。
48
vCPU が 8 未満の行を削除するフィルターを使用してビューを作成し、UNNEST 演算子を使用します。
49
Autoclass ストレージクラス機能を使用してバケットを作成します。
50
1. 非特定化変換タイプとして FFX を使用したフォーマット保持暗号化を使用して、Cloud DLP の recordTransformations を使用して email フィールドを非特定化するパイプラインを作成します。 2. 予約データとユーザープロファイルデータを BigQuery テーブルにロードします。