問題一覧
1
Dialogflow エンタープライズエディション
2
クラウドコンポーザー
3
Analytics Hub を使用してデータ アクセスを制御し、サードパーティ企業にデータセットへのアクセスを提供します。
4
それぞれの新しい CDC レコードと対応する操作タイプをステージング テーブルにリアルタイムで挿入します。, 定期的に DML MERGE を使用して、レポート テーブルで複数の DML INSERT、UPDATE、および DELETE 操作を同時に実行します。
5
メッセージの取り込みには Cloud Pub/Sub を使用し、ストリーミング分析には Cloud Dataflow を使用します。
6
各部門ごとにデータセットを作成します。部門リーダーに書き込み(WRITER)の役割を割り当て、データアナリストにデータセットの読み取り(READER)の役割を割り当てます。
7
Cloud Bigtable テーブルの行キー構文を、株価シンボルで始まるように変更します。
8
ソースの subscription/num_undelivered_messages の増加と、宛先の instance/storage/used_bytes の変化率の減少に基づくアラート
9
Cloud Pub/Sub に接続された IoT ゲートウェイ。Cloud Dataflow を使用して Cloud Pub/Sub からのメッセージを読み取って処理します。
10
マネージド エクスポートを使用し、Nearline または Coldline クラスを使用して Cloud Storage バケットにデータを保存します。, マネージド エクスポートを使用し、そのエクスポート用に予約された一意の名前空間の下にある別のプロジェクトの Cloud Datastore にインポートします。
11
可能な限りデータを非正規化します。, ステータスの更新が更新されるのではなく、BigQuery に追加されるデータ パイプラインを開発します。
12
データをマルチリージョンの Cloud Storage バケットに保存します。Dataproc、BigQuery、Compute Engine を使用してデータに直接アクセスします。
13
完全なデータセットを BigQuery に保存し、データの圧縮コピーを Cloud Storage バケットに保存します。
14
既存のデータセットで Cloud Vision AutoML を使用します。
15
追加のレイヤーを導入したり、使用する語彙や n-gram のサイズを大きくしたりして、モデルの複雑さを増します。
16
各月ごとにデータを別々のテーブルに整理し、スナップショット デコレータを使用してテーブルを破損前の状態に復元します。
17
CSVファイルから新しいレコードを新しいBigQueryテーブルにインポートします。新しいレコードを既存のレコードとマージし、結果を新しいBigQueryテーブルに書き込むBigQueryジョブを作成します。
18
アクセス制御ポリシーの継承を活用するためにリソース階層を導入します。, さまざまなチームごとに個別のグループを作成し、Cloud IAM ポリシーでグループを指定します。
19
北米のリーダーとアジアおよびヨーロッパの読み取り専用レプリカを使用して Cloud Spanner を実装します。
20
BigQueryIO を使用して Dataflow パイプラインを作成し、クエリから全ユーザーの予測を読み取ります。BigtableIO を使用して結果を Bigtable に書き込みます。アプリケーションが Bigtable から個々のユーザーの予測を読み取れるように、アプリケーション サービス アカウントに Bigtable Reader ロールを付与します。
21
センサーのキャリブレーションを生データに適用するための新しい MapReduce ジョブを導入し、その後に他のすべての MapReduce ジョブが連鎖されるようにします。
22
Cloud Pub/Sub、クラウドストレージ、BigQuery
23
Cloud Pub/Sub にイベントを公開するアプリケーションを作成し、JSON イベント ペイロードを Avro に変換してデータを Cloud Storage と BigQuery に書き込む Cloud Dataflow パイプラインを作成します。
24
最大ワーカー数を増やす, Dataflow ワーカーにはより大きなインスタンス タイプを使用します
25
PipelineOptions で maxNumWorkers を設定して、データフローワーカーの最大数を増やします。, Bigtableクラスタ内のノード数を増やす
Alibaba01
Alibaba01
YUSUKE · 60問 · 1年前Alibaba01
Alibaba01
60問 • 1年前Alibaba02
Alibaba02
YUSUKE · 60問 · 1年前Alibaba02
Alibaba02
60問 • 1年前Alibaba03
Alibaba03
YUSUKE · 60問 · 1年前Alibaba03
Alibaba03
60問 • 1年前Alibaba11
Alibaba11
YUSUKE · 60問 · 1年前Alibaba11
Alibaba11
60問 • 1年前Alibaba12
Alibaba12
YUSUKE · 60問 · 1年前Alibaba12
Alibaba12
60問 • 1年前2023年秋エンベデッド
2023年秋エンベデッド
YUSUKE · 25問 · 1年前2023年秋エンベデッド
2023年秋エンベデッド
25問 • 1年前2022年秋エンベデッド
2022年秋エンベデッド
YUSUKE · 25問 · 1年前2022年秋エンベデッド
2022年秋エンベデッド
25問 • 1年前2021年秋エンベデッド
2021年秋エンベデッド
YUSUKE · 25問 · 1年前2021年秋エンベデッド
2021年秋エンベデッド
25問 • 1年前2020年秋エンベデッド
2020年秋エンベデッド
YUSUKE · 25問 · 1年前2020年秋エンベデッド
2020年秋エンベデッド
25問 • 1年前2019年春エンベデッド
2019年春エンベデッド
YUSUKE · 25問 · 1年前2019年春エンベデッド
2019年春エンベデッド
25問 • 1年前2018年春エンベデッド
2018年春エンベデッド
YUSUKE · 25問 · 1年前2018年春エンベデッド
2018年春エンベデッド
25問 • 1年前2017年春エンベデッド
2017年春エンベデッド
YUSUKE · 25問 · 1年前2017年春エンベデッド
2017年春エンベデッド
25問 • 1年前2024年春システムアーキテクト
2024年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2024年春システムアーキテクト
2024年春システムアーキテクト
25問 • 10ヶ月前2023年春システムアーキテクト
2023年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2023年春システムアーキテクト
2023年春システムアーキテクト
25問 • 10ヶ月前2022年春システムアーキテクト
2022年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2022年春システムアーキテクト
2022年春システムアーキテクト
25問 • 10ヶ月前2021年春システムアーキテクト
2021年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2021年春システムアーキテクト
2021年春システムアーキテクト
25問 • 10ヶ月前2019年秋システムアーキテクト
2019年秋システムアーキテクト
YUSUKE · 25問 · 9ヶ月前2019年秋システムアーキテクト
2019年秋システムアーキテクト
25問 • 9ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
25問 • 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
25問 • 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
25問 • 5ヶ月前問題一覧
1
Dialogflow エンタープライズエディション
2
クラウドコンポーザー
3
Analytics Hub を使用してデータ アクセスを制御し、サードパーティ企業にデータセットへのアクセスを提供します。
4
それぞれの新しい CDC レコードと対応する操作タイプをステージング テーブルにリアルタイムで挿入します。, 定期的に DML MERGE を使用して、レポート テーブルで複数の DML INSERT、UPDATE、および DELETE 操作を同時に実行します。
5
メッセージの取り込みには Cloud Pub/Sub を使用し、ストリーミング分析には Cloud Dataflow を使用します。
6
各部門ごとにデータセットを作成します。部門リーダーに書き込み(WRITER)の役割を割り当て、データアナリストにデータセットの読み取り(READER)の役割を割り当てます。
7
Cloud Bigtable テーブルの行キー構文を、株価シンボルで始まるように変更します。
8
ソースの subscription/num_undelivered_messages の増加と、宛先の instance/storage/used_bytes の変化率の減少に基づくアラート
9
Cloud Pub/Sub に接続された IoT ゲートウェイ。Cloud Dataflow を使用して Cloud Pub/Sub からのメッセージを読み取って処理します。
10
マネージド エクスポートを使用し、Nearline または Coldline クラスを使用して Cloud Storage バケットにデータを保存します。, マネージド エクスポートを使用し、そのエクスポート用に予約された一意の名前空間の下にある別のプロジェクトの Cloud Datastore にインポートします。
11
可能な限りデータを非正規化します。, ステータスの更新が更新されるのではなく、BigQuery に追加されるデータ パイプラインを開発します。
12
データをマルチリージョンの Cloud Storage バケットに保存します。Dataproc、BigQuery、Compute Engine を使用してデータに直接アクセスします。
13
完全なデータセットを BigQuery に保存し、データの圧縮コピーを Cloud Storage バケットに保存します。
14
既存のデータセットで Cloud Vision AutoML を使用します。
15
追加のレイヤーを導入したり、使用する語彙や n-gram のサイズを大きくしたりして、モデルの複雑さを増します。
16
各月ごとにデータを別々のテーブルに整理し、スナップショット デコレータを使用してテーブルを破損前の状態に復元します。
17
CSVファイルから新しいレコードを新しいBigQueryテーブルにインポートします。新しいレコードを既存のレコードとマージし、結果を新しいBigQueryテーブルに書き込むBigQueryジョブを作成します。
18
アクセス制御ポリシーの継承を活用するためにリソース階層を導入します。, さまざまなチームごとに個別のグループを作成し、Cloud IAM ポリシーでグループを指定します。
19
北米のリーダーとアジアおよびヨーロッパの読み取り専用レプリカを使用して Cloud Spanner を実装します。
20
BigQueryIO を使用して Dataflow パイプラインを作成し、クエリから全ユーザーの予測を読み取ります。BigtableIO を使用して結果を Bigtable に書き込みます。アプリケーションが Bigtable から個々のユーザーの予測を読み取れるように、アプリケーション サービス アカウントに Bigtable Reader ロールを付与します。
21
センサーのキャリブレーションを生データに適用するための新しい MapReduce ジョブを導入し、その後に他のすべての MapReduce ジョブが連鎖されるようにします。
22
Cloud Pub/Sub、クラウドストレージ、BigQuery
23
Cloud Pub/Sub にイベントを公開するアプリケーションを作成し、JSON イベント ペイロードを Avro に変換してデータを Cloud Storage と BigQuery に書き込む Cloud Dataflow パイプラインを作成します。
24
最大ワーカー数を増やす, Dataflow ワーカーにはより大きなインスタンス タイプを使用します
25
PipelineOptions で maxNumWorkers を設定して、データフローワーカーの最大数を増やします。, Bigtableクラスタ内のノード数を増やす