問題一覧
1
BigQuery にデータを読み込む前に、Cloud Data Loss Prevention(DLP)を使用して、入力値を暗号形式を保持する暗号化トークンに置き換えます。
2
トランザクション時間でパーティション分割し、最初に州、次に都市、最後に店舗 ID でクラスター化します。
3
新しいサブスクライバーコードをデプロイする前に、Pub/Sub スナップショットを作成してください。スナップショットの作成後に利用可能になったメッセージを再配信するには、Seek オペレーションを使用してください。
4
モデルを作成する際は、BigQuery の TRANSFORM 句を使用して前処理手順を定義します。予測時には、生の入力データに対する変換を指定せずに、BigQuery の ML.EVALUATE 句を使用します。
5
継続時間30秒、周期5秒のスライディングウィンドウを使用します。次のトリガーを設定して結果を出力します: AfterWatermark.pastEndOfWindow()
6
リクエストの 70% をカバーする 10 個のインテントを自動化し、ライブエージェントがより複雑なリクエストを処理できるようにします。
7
取引日ごとにデータを分割します。
8
Cloud Storage からデータを読み取り、想定範囲外の値をチェックし、値を適切なデフォルトに設定し、更新されたレコードを Cloud Storage の新しいデータセットに書き込む Dataflow ワークフローを作成します。
9
Cloud Storage から BigQuery にデータを取り込み、PySpark コマンドを BigQuery SQL クエリに変換してデータを変換し、変換結果を新しいテーブルに書き込みます。
10
SideInput の代わりに CoGroupByKey を使用します。
11
PII データを暗号化形式保持トークンに置き換えて仮名を作成します。
12
書籍と著者に関する情報を含むテーブルを作成しますが、著者フィールドを著者列内にネストします。
13
移行にはgsutil、リアルタイム更新にはPub/SubとDataflow
14
Pub/Sub トピックから継続的に読み取り、タンブリング ウィンドウを使用して必要な集計を実行するストリーミング Dataflow ジョブを作成します。
15
Dataflow ネットワーク タグの TCP ポート 12345 および 12346 上のトラフィックを許可するファイアウォール ルールが設定されているかどうかを確認します。
16
Cloud Storage のデュアルリージョンまたはマルチリージョン バケットへのテーブルの毎日のエクスポートをスケジュールします。
17
1. データ製品ごとに Dataplex 仮想レイクを作成し、ランディング データ、生データ、キュレーション データ用の複数のゾーンを作成します。2. データ エンジニアリング チームに、データ製品に割り当てられた仮想レイクへのフル アクセス権を付与します。
18
BigQuery でパッケージ追跡 ID 列のクラスタリングを実装します。
19
投票結果をPub/Subトピックに書き込み、Dataflowパイプラインを介してBigtableとBigQueryの両方に読み込みます。Bigtableにクエリを送信してリアルタイムの結果を取得し、BigQueryにクエリを送信して後で分析します。投票が終了したら、Bigtableインスタンスをシャットダウンします。
20
テーブル データを create_date でパーティション分割し、テーブル データを location_id および device_version でクラスター化します。
21
Dataflow を使用して、BigQuery をシンクとして、ロングテールおよび外れ値のデータポイントをプログラムで識別します。
22
Cloud Build を使用して、Terraform ビルドを使用したジョブをスケジュールし、インフラストラクチャをプロビジョニングして、最新のコンテナ イメージで起動します。
23
Pub/Subトピックを作成し、すべてのベンダーデータをそのトピックに送信します。Dataflowを使用してPub/Subデータを処理およびサニタイズし、BigQueryにストリーミングします。
24
GPU ハードウェア アクセラレータを備えた VM を使用してモデルをトレーニングします。
25
オンプレミス環境から Cloud Storage にデータをコピーするには、オンプレミス データ転送サービスを使用します。BigQuery にデータをインポートするには、BigQuery データ転送サービスを使用します。
Alibaba01
Alibaba01
YUSUKE · 60問 · 1年前Alibaba01
Alibaba01
60問 • 1年前Alibaba02
Alibaba02
YUSUKE · 60問 · 1年前Alibaba02
Alibaba02
60問 • 1年前Alibaba03
Alibaba03
YUSUKE · 60問 · 1年前Alibaba03
Alibaba03
60問 • 1年前Alibaba11
Alibaba11
YUSUKE · 60問 · 1年前Alibaba11
Alibaba11
60問 • 1年前Alibaba12
Alibaba12
YUSUKE · 60問 · 1年前Alibaba12
Alibaba12
60問 • 1年前2023年秋エンベデッド
2023年秋エンベデッド
YUSUKE · 25問 · 1年前2023年秋エンベデッド
2023年秋エンベデッド
25問 • 1年前2022年秋エンベデッド
2022年秋エンベデッド
YUSUKE · 25問 · 1年前2022年秋エンベデッド
2022年秋エンベデッド
25問 • 1年前2021年秋エンベデッド
2021年秋エンベデッド
YUSUKE · 25問 · 1年前2021年秋エンベデッド
2021年秋エンベデッド
25問 • 1年前2020年秋エンベデッド
2020年秋エンベデッド
YUSUKE · 25問 · 1年前2020年秋エンベデッド
2020年秋エンベデッド
25問 • 1年前2019年春エンベデッド
2019年春エンベデッド
YUSUKE · 25問 · 1年前2019年春エンベデッド
2019年春エンベデッド
25問 • 1年前2018年春エンベデッド
2018年春エンベデッド
YUSUKE · 25問 · 1年前2018年春エンベデッド
2018年春エンベデッド
25問 • 1年前2017年春エンベデッド
2017年春エンベデッド
YUSUKE · 25問 · 1年前2017年春エンベデッド
2017年春エンベデッド
25問 • 1年前2024年春システムアーキテクト
2024年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2024年春システムアーキテクト
2024年春システムアーキテクト
25問 • 10ヶ月前2023年春システムアーキテクト
2023年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2023年春システムアーキテクト
2023年春システムアーキテクト
25問 • 10ヶ月前2022年春システムアーキテクト
2022年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2022年春システムアーキテクト
2022年春システムアーキテクト
25問 • 10ヶ月前2021年春システムアーキテクト
2021年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2021年春システムアーキテクト
2021年春システムアーキテクト
25問 • 10ヶ月前2019年秋システムアーキテクト
2019年秋システムアーキテクト
YUSUKE · 25問 · 9ヶ月前2019年秋システムアーキテクト
2019年秋システムアーキテクト
25問 • 9ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
25問 • 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
25問 • 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
25問 • 5ヶ月前問題一覧
1
BigQuery にデータを読み込む前に、Cloud Data Loss Prevention(DLP)を使用して、入力値を暗号形式を保持する暗号化トークンに置き換えます。
2
トランザクション時間でパーティション分割し、最初に州、次に都市、最後に店舗 ID でクラスター化します。
3
新しいサブスクライバーコードをデプロイする前に、Pub/Sub スナップショットを作成してください。スナップショットの作成後に利用可能になったメッセージを再配信するには、Seek オペレーションを使用してください。
4
モデルを作成する際は、BigQuery の TRANSFORM 句を使用して前処理手順を定義します。予測時には、生の入力データに対する変換を指定せずに、BigQuery の ML.EVALUATE 句を使用します。
5
継続時間30秒、周期5秒のスライディングウィンドウを使用します。次のトリガーを設定して結果を出力します: AfterWatermark.pastEndOfWindow()
6
リクエストの 70% をカバーする 10 個のインテントを自動化し、ライブエージェントがより複雑なリクエストを処理できるようにします。
7
取引日ごとにデータを分割します。
8
Cloud Storage からデータを読み取り、想定範囲外の値をチェックし、値を適切なデフォルトに設定し、更新されたレコードを Cloud Storage の新しいデータセットに書き込む Dataflow ワークフローを作成します。
9
Cloud Storage から BigQuery にデータを取り込み、PySpark コマンドを BigQuery SQL クエリに変換してデータを変換し、変換結果を新しいテーブルに書き込みます。
10
SideInput の代わりに CoGroupByKey を使用します。
11
PII データを暗号化形式保持トークンに置き換えて仮名を作成します。
12
書籍と著者に関する情報を含むテーブルを作成しますが、著者フィールドを著者列内にネストします。
13
移行にはgsutil、リアルタイム更新にはPub/SubとDataflow
14
Pub/Sub トピックから継続的に読み取り、タンブリング ウィンドウを使用して必要な集計を実行するストリーミング Dataflow ジョブを作成します。
15
Dataflow ネットワーク タグの TCP ポート 12345 および 12346 上のトラフィックを許可するファイアウォール ルールが設定されているかどうかを確認します。
16
Cloud Storage のデュアルリージョンまたはマルチリージョン バケットへのテーブルの毎日のエクスポートをスケジュールします。
17
1. データ製品ごとに Dataplex 仮想レイクを作成し、ランディング データ、生データ、キュレーション データ用の複数のゾーンを作成します。2. データ エンジニアリング チームに、データ製品に割り当てられた仮想レイクへのフル アクセス権を付与します。
18
BigQuery でパッケージ追跡 ID 列のクラスタリングを実装します。
19
投票結果をPub/Subトピックに書き込み、Dataflowパイプラインを介してBigtableとBigQueryの両方に読み込みます。Bigtableにクエリを送信してリアルタイムの結果を取得し、BigQueryにクエリを送信して後で分析します。投票が終了したら、Bigtableインスタンスをシャットダウンします。
20
テーブル データを create_date でパーティション分割し、テーブル データを location_id および device_version でクラスター化します。
21
Dataflow を使用して、BigQuery をシンクとして、ロングテールおよび外れ値のデータポイントをプログラムで識別します。
22
Cloud Build を使用して、Terraform ビルドを使用したジョブをスケジュールし、インフラストラクチャをプロビジョニングして、最新のコンテナ イメージで起動します。
23
Pub/Subトピックを作成し、すべてのベンダーデータをそのトピックに送信します。Dataflowを使用してPub/Subデータを処理およびサニタイズし、BigQueryにストリーミングします。
24
GPU ハードウェア アクセラレータを備えた VM を使用してモデルをトレーニングします。
25
オンプレミス環境から Cloud Storage にデータをコピーするには、オンプレミス データ転送サービスを使用します。BigQuery にデータをインポートするには、BigQuery データ転送サービスを使用します。