PDE_page4
問題一覧
1
既存の Spark ML モデルのトレーニングに Dataproc を使用しますが、BigQuery から直接データの読み取りを開始します
2
BigQuery
3
Kafka IO を使用して Dataflow でデータストリームを消費します。5 分ごとに 1 時間のスライディング時間枠を設定します。ウィンドウが閉じると平均を計算し、平均が 4000 メッセージ未満の場合はアラートを送信します。
4
1 つのゾーンに Cloud SQL インスタンスを作成し、同じリージョン内の別のゾーンにフェイルオーバーレプリカを作成します。
5
Apache Kafka
6
Dataproc クラスタをデプロイします。標準の永続ディスクと 50% のプリエンプティブワーカーを使用します。データを Cloud Storage に保存し、スクリプト内の参照を hdfs:// から gs:// に変更します
7
ハイパーパラメータチューニングを実行します
8
すべての依存関係を VPC セキュリティ境界内にある Cloud Storage バケットにコピーします
9
Cloud SQL
10
Cloud SQL
11
Compute Engine コンピュータ識別子と毎秒のサンプル時間を組み合わせた行キーを使用して、Bigtable にナローテーブルを作成します
12
gcloud kms keys create を使用して対称鍵を作成します。次に、gcloud kms encrypt を使用して、各アーカイブファイルを鍵と一意の追加認証データ (AAD) で暗号化します。gsutil cp を使用して各暗号化ファイルを Cloud Storage バケットにアップロードし、AAD を Google Cloud の外部に保持します。
13
情報を Cloud Monitoring にエクスポートし、アラートポリシーを設定します
14
BigQuery で SQL を使用して、ワンホットエンコーディング方式で状態列を変換し、各都市をバイナリ値を持つ列にします。
15
Cloud Spanner にトランザクションを保存します。ロック読み取り/書き込みトランザクションを使用します。
16
パッケージ追跡 ID 列で BigQuery にクラスタリングを実装します。
17
ワークロードを Dataproc と Cloud Storage に移行します。後で最新化します。
18
データを BigQuery にロードする前に、Cloud Data Loss Prevention(DLP)を使用して入力値を暗号化された形式保持暗号化トークンに置き換えます。
19
トランザクション時間でパーティション分割します。最初に州、次に都市、次に店舗 ID でクラスタリングします。
20
新しいサブスクライバーコードをデプロイする前に、Pub/Sub スナップショットを作成します。シーク操作を使用して、スナップショットの作成後に使用可能になったメッセージを再配信します。
21
モデルを作成するときは、BigQuery の TRANSFORM 句を使用して前処理手順を定義します。予測時には、raw 入力データに 変換を指定せずに BigQuery の ML.EVALUATE 句を使用します。
22
期間が 30 秒、期間が 5 秒のスライディングウィンドウを使用します。次のトリガーを設定して結果を出力します。AfterWatermark.pastEndOfWindow()
23
Pub/Sub トピックから継続的に読み取り、タンブリングウィンドウを使用して必要な集計を実行するストリーミング Dataflow ジョブを作成します。
24
ライブエージェントがより複雑なリクエストを処理できるように、リクエストの 70% をカバーする 10 の意図を自動化します。
25
トランザクション日でデータをパーティション分割します。
26
Cloud Storage からデータを読み取り、予想される範囲外の値をチェックし、値を適切なデフォルトに設定し、更新されたレコードを Cloud Storage の新しいデータセットに書き込む Dataflow ワークフローを作成します。
27
Cloud Storage から BigQuery にデータを取り込み、PySpark コマンドを BigQuery SQL クエリに変換してデータを変換し、変換を新しいテーブルに書き込みます。
28
SideInput の代わりに CoGroupByKey を使用します。
29
PII データを暗号化された形式保持トークンに置き換えて仮名を作成します。
30
書籍と著者に関する情報を含むテーブルを作成しますが、著者フィールドを著者列内にネストします。
31
DoFn の startBundle メソッドで新しいオブジェクトを作成します。
32
移行には gsutil。リアルタイム更新には Pub/Sub と Dataflow
33
すべてのインデックスに 1 つのユニークテーブルを作成し、逆タイムスタンプを行キーデザインとして使用します。
34
ステージングされたデータを本番テーブルに移動し、3 時間ごとにステージングテーブルの内容を削除するステージングテーブルを作成します。
35
ワーカーコードの例外
36
Cloud Logging データを BigQuery に毎日エクスポートします。プロジェクト、ログタイプ、リソース、ユーザーでフィルタリングするビューを作成します。
37
プロジェクトとクラウド ストレージの両方を制限付き API として含む VPC サービス コントロール境界を作成します。その境界のアクセスレベルに開発チームのユーザーを追加します。
38
最初に Cloud Spanner を使用して単一リージョンインスタンスを構成し、資金を確保した後にマルチリージョン Cloud Spanner インスタンスを構成します。
39
オンプレミスデータセンターと Google Cloud の間に Cloud Interconnect 接続を確立し、Storage Transfer Service を使用します。
40
Data Fusion を使用して、データを BigQuery にロードする前に変換します。
41
トレーニングデータセットのサイズを増やし、入力特徴の数を減らします。
42
Dialogflow を使用してチャットボットを実装し、収集された最も一般的なクエリに基づいて意図を定義します。
43
Apache Beam カスタムコネクタを使用して、データを Avro 形式で BigQuery にストリーミングする Dataflow パイプラインを作成します。
44
Pub/Sub プッシュサブスクリプションを使用して、Python API にデータを渡す Cloud Function をトリガーします。
45
BigQuery をデータウェアハウスとして使用します。大規模なクエリをキャッシュするための出力先を設定します。
46
データセンターにオンプレミスデータ用の Storage Transfer Service をインストールし、毎週の転送ジョブを構成します。
47
高可用性が有効になっている Cloud SQL for PostgreSQL インスタンスを構成します。
48
共有 VPC 構成で Cloud Composer を使用します。Cloud Composer リソースをサービスプロジェクトに配置します。
49
マテリアライズドビューで BigQuery BI Engine を使用します。
50
Cloud Storage を使用して、主要なデータ保護基準に準拠します。IAM グループに接続された複数のサービスアカウントを使用して、各グループに適切なアクセス権を付与します。
PDE_page5
PDE_page5
ユーザ名非公開 · 50問 · 1年前PDE_page5
PDE_page5
50問 • 1年前PDE_page6
PDE_page6
ユーザ名非公開 · 50問 · 1年前PDE_page6
PDE_page6
50問 • 1年前PDE_page7
PDE_page7
ユーザ名非公開 · 19問 · 1年前PDE_page7
PDE_page7
19問 • 1年前PMLE04
PMLE04
ユーザ名非公開 · 50問 · 8ヶ月前PMLE04
PMLE04
50問 • 8ヶ月前PMLE05
PMLE05
ユーザ名非公開 · 50問 · 8ヶ月前PMLE05
PMLE05
50問 • 8ヶ月前PMLE06
PMLE06
ユーザ名非公開 · 50問 · 8ヶ月前PMLE06
PMLE06
50問 • 8ヶ月前PMLE07
PMLE07
ユーザ名非公開 · 39問 · 8ヶ月前PMLE07
PMLE07
39問 • 8ヶ月前問題一覧
1
既存の Spark ML モデルのトレーニングに Dataproc を使用しますが、BigQuery から直接データの読み取りを開始します
2
BigQuery
3
Kafka IO を使用して Dataflow でデータストリームを消費します。5 分ごとに 1 時間のスライディング時間枠を設定します。ウィンドウが閉じると平均を計算し、平均が 4000 メッセージ未満の場合はアラートを送信します。
4
1 つのゾーンに Cloud SQL インスタンスを作成し、同じリージョン内の別のゾーンにフェイルオーバーレプリカを作成します。
5
Apache Kafka
6
Dataproc クラスタをデプロイします。標準の永続ディスクと 50% のプリエンプティブワーカーを使用します。データを Cloud Storage に保存し、スクリプト内の参照を hdfs:// から gs:// に変更します
7
ハイパーパラメータチューニングを実行します
8
すべての依存関係を VPC セキュリティ境界内にある Cloud Storage バケットにコピーします
9
Cloud SQL
10
Cloud SQL
11
Compute Engine コンピュータ識別子と毎秒のサンプル時間を組み合わせた行キーを使用して、Bigtable にナローテーブルを作成します
12
gcloud kms keys create を使用して対称鍵を作成します。次に、gcloud kms encrypt を使用して、各アーカイブファイルを鍵と一意の追加認証データ (AAD) で暗号化します。gsutil cp を使用して各暗号化ファイルを Cloud Storage バケットにアップロードし、AAD を Google Cloud の外部に保持します。
13
情報を Cloud Monitoring にエクスポートし、アラートポリシーを設定します
14
BigQuery で SQL を使用して、ワンホットエンコーディング方式で状態列を変換し、各都市をバイナリ値を持つ列にします。
15
Cloud Spanner にトランザクションを保存します。ロック読み取り/書き込みトランザクションを使用します。
16
パッケージ追跡 ID 列で BigQuery にクラスタリングを実装します。
17
ワークロードを Dataproc と Cloud Storage に移行します。後で最新化します。
18
データを BigQuery にロードする前に、Cloud Data Loss Prevention(DLP)を使用して入力値を暗号化された形式保持暗号化トークンに置き換えます。
19
トランザクション時間でパーティション分割します。最初に州、次に都市、次に店舗 ID でクラスタリングします。
20
新しいサブスクライバーコードをデプロイする前に、Pub/Sub スナップショットを作成します。シーク操作を使用して、スナップショットの作成後に使用可能になったメッセージを再配信します。
21
モデルを作成するときは、BigQuery の TRANSFORM 句を使用して前処理手順を定義します。予測時には、raw 入力データに 変換を指定せずに BigQuery の ML.EVALUATE 句を使用します。
22
期間が 30 秒、期間が 5 秒のスライディングウィンドウを使用します。次のトリガーを設定して結果を出力します。AfterWatermark.pastEndOfWindow()
23
Pub/Sub トピックから継続的に読み取り、タンブリングウィンドウを使用して必要な集計を実行するストリーミング Dataflow ジョブを作成します。
24
ライブエージェントがより複雑なリクエストを処理できるように、リクエストの 70% をカバーする 10 の意図を自動化します。
25
トランザクション日でデータをパーティション分割します。
26
Cloud Storage からデータを読み取り、予想される範囲外の値をチェックし、値を適切なデフォルトに設定し、更新されたレコードを Cloud Storage の新しいデータセットに書き込む Dataflow ワークフローを作成します。
27
Cloud Storage から BigQuery にデータを取り込み、PySpark コマンドを BigQuery SQL クエリに変換してデータを変換し、変換を新しいテーブルに書き込みます。
28
SideInput の代わりに CoGroupByKey を使用します。
29
PII データを暗号化された形式保持トークンに置き換えて仮名を作成します。
30
書籍と著者に関する情報を含むテーブルを作成しますが、著者フィールドを著者列内にネストします。
31
DoFn の startBundle メソッドで新しいオブジェクトを作成します。
32
移行には gsutil。リアルタイム更新には Pub/Sub と Dataflow
33
すべてのインデックスに 1 つのユニークテーブルを作成し、逆タイムスタンプを行キーデザインとして使用します。
34
ステージングされたデータを本番テーブルに移動し、3 時間ごとにステージングテーブルの内容を削除するステージングテーブルを作成します。
35
ワーカーコードの例外
36
Cloud Logging データを BigQuery に毎日エクスポートします。プロジェクト、ログタイプ、リソース、ユーザーでフィルタリングするビューを作成します。
37
プロジェクトとクラウド ストレージの両方を制限付き API として含む VPC サービス コントロール境界を作成します。その境界のアクセスレベルに開発チームのユーザーを追加します。
38
最初に Cloud Spanner を使用して単一リージョンインスタンスを構成し、資金を確保した後にマルチリージョン Cloud Spanner インスタンスを構成します。
39
オンプレミスデータセンターと Google Cloud の間に Cloud Interconnect 接続を確立し、Storage Transfer Service を使用します。
40
Data Fusion を使用して、データを BigQuery にロードする前に変換します。
41
トレーニングデータセットのサイズを増やし、入力特徴の数を減らします。
42
Dialogflow を使用してチャットボットを実装し、収集された最も一般的なクエリに基づいて意図を定義します。
43
Apache Beam カスタムコネクタを使用して、データを Avro 形式で BigQuery にストリーミングする Dataflow パイプラインを作成します。
44
Pub/Sub プッシュサブスクリプションを使用して、Python API にデータを渡す Cloud Function をトリガーします。
45
BigQuery をデータウェアハウスとして使用します。大規模なクエリをキャッシュするための出力先を設定します。
46
データセンターにオンプレミスデータ用の Storage Transfer Service をインストールし、毎週の転送ジョブを構成します。
47
高可用性が有効になっている Cloud SQL for PostgreSQL インスタンスを構成します。
48
共有 VPC 構成で Cloud Composer を使用します。Cloud Composer リソースをサービスプロジェクトに配置します。
49
マテリアライズドビューで BigQuery BI Engine を使用します。
50
Cloud Storage を使用して、主要なデータ保護基準に準拠します。IAM グループに接続された複数のサービスアカウントを使用して、各グループに適切なアクセス権を付与します。