問題一覧
1
Cloud Composer で有向非巡回グラフを作成する
2
Cloud Pub/Sub トピックを使用してジョブを公開し、サブスクリプションを使用してジョブを実行します。
3
ランダムなユニバーサルユニーク識別子番号(バージョン 4 UUID)
4
集約エクスポートシンクを介して、監査ログ用に新しく作成されたプロジェクトの Cloud Storage バケットにデータアクセスログをエクスポートします。エクスポートされたログを含むプロジェクトへのアクセスを制限します。
5
BigQuery メトリック slots/allocated_for_project に基づいて Cloud Monitoring ダッシュボードを作成する
6
ドレインオプションを使用してCloud Dataflowパイプラインを停止します。更新されたコードで新しいCloud Dataflowジョブを作成します。
7
Transfer Appliance を使用してデータを Cloud Storage にコピーする
8
Dataprep by Trifacta を使用して変換レシピを構築および維持し、スケジュールに従って実行します。
9
gsutil ユーティリティを実行して、Cloud Storage バケットから Dataproc クラスタのマスターノードにすべての ORC ファイルを転送します。次に、Hadoop ユーティリティを実行して、それらを HDFS にコピーします。HDFS から Hive テーブルをマウントします。, Hadoop 用の Cloud Storage コネクタを活用して、ORC ファイルを外部 Hive テーブルとしてマウントします。外部 Hive テーブルをネイティブ Hive テーブルに複製します。
10
クラウドコンポーザー
11
画像のコーパスで AutoML モデルをトレーニングし、そのモデルを中心に API を構築して、パッケージ追跡アプリケーションと統合します。
12
各テーブルに対して、テーブルレベルでユーザー/グループにデータ閲覧権限を割り当てます。
13
Hadoop クラスタに十分な永続ディスク領域を割り当て、特定の Hadoop ジョブの中間データをネイティブ HDFS に保存します。
14
既存の Spark ML モデルのトレーニングには Dataproc を使用しますが、BigQuery から直接データを読み取り始めます。
15
ビッグクエリ
16
Kafka IO を使用して、Dataflow でデータストリームを消費します。5 分ごとに 1 時間のスライディングタイムウィンドウを設定します。ウィンドウの終了時に平均を計算し、平均が 4,000 件未満の場合はアラートを送信します。
17
あるゾーンに Cloud SQL インスタンスを作成し、同じリージョン内の別のゾーンにフェイルオーバー レプリカを作成します。
18
アパッチカフカ
19
Dataproc クラスタをデプロイします。標準の永続ディスクと 50% のプリエンプティブ ワーカーを使用します。データを Cloud Storage に保存し、スクリプト内の参照を hdfs:// から gs:// に変更します。
20
ハイパーパラメータの調整を実行する
21
すべての依存関係を VPC セキュリティ境界内の Cloud Storage バケットにコピーします
22
クラウドSQL
23
クラウドSQL
24
Bigtable に、Computer Engine のコンピュータ識別子と毎秒のサンプル時間を組み合わせた行キーを持つ狭いテーブルを作成します。
25
gcloud kms keys create を使用して対称鍵を作成します。次に、gcloud kms encrypt を使用して、作成した鍵と固有の追加認証データ(AAD)で各アーカイブファイルを暗号化します。gsutil cp を使用して、暗号化された各ファイルを Cloud Storage バケットにアップロードし、AAD は Google Cloud の外部に保管します。
Alibaba01
Alibaba01
YUSUKE · 60問 · 1年前Alibaba01
Alibaba01
60問 • 1年前Alibaba02
Alibaba02
YUSUKE · 60問 · 1年前Alibaba02
Alibaba02
60問 • 1年前Alibaba03
Alibaba03
YUSUKE · 60問 · 1年前Alibaba03
Alibaba03
60問 • 1年前Alibaba11
Alibaba11
YUSUKE · 60問 · 1年前Alibaba11
Alibaba11
60問 • 1年前Alibaba12
Alibaba12
YUSUKE · 60問 · 1年前Alibaba12
Alibaba12
60問 • 1年前2023年秋エンベデッド
2023年秋エンベデッド
YUSUKE · 25問 · 1年前2023年秋エンベデッド
2023年秋エンベデッド
25問 • 1年前2022年秋エンベデッド
2022年秋エンベデッド
YUSUKE · 25問 · 1年前2022年秋エンベデッド
2022年秋エンベデッド
25問 • 1年前2021年秋エンベデッド
2021年秋エンベデッド
YUSUKE · 25問 · 1年前2021年秋エンベデッド
2021年秋エンベデッド
25問 • 1年前2020年秋エンベデッド
2020年秋エンベデッド
YUSUKE · 25問 · 1年前2020年秋エンベデッド
2020年秋エンベデッド
25問 • 1年前2019年春エンベデッド
2019年春エンベデッド
YUSUKE · 25問 · 1年前2019年春エンベデッド
2019年春エンベデッド
25問 • 1年前2018年春エンベデッド
2018年春エンベデッド
YUSUKE · 25問 · 1年前2018年春エンベデッド
2018年春エンベデッド
25問 • 1年前2017年春エンベデッド
2017年春エンベデッド
YUSUKE · 25問 · 1年前2017年春エンベデッド
2017年春エンベデッド
25問 • 1年前2024年春システムアーキテクト
2024年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2024年春システムアーキテクト
2024年春システムアーキテクト
25問 • 10ヶ月前2023年春システムアーキテクト
2023年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2023年春システムアーキテクト
2023年春システムアーキテクト
25問 • 10ヶ月前2022年春システムアーキテクト
2022年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2022年春システムアーキテクト
2022年春システムアーキテクト
25問 • 10ヶ月前2021年春システムアーキテクト
2021年春システムアーキテクト
YUSUKE · 25問 · 10ヶ月前2021年春システムアーキテクト
2021年春システムアーキテクト
25問 • 10ヶ月前2019年秋システムアーキテクト
2019年秋システムアーキテクト
YUSUKE · 25問 · 9ヶ月前2019年秋システムアーキテクト
2019年秋システムアーキテクト
25問 • 9ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1
25問 • 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2
25問 • 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
YUSUKE · 25問 · 5ヶ月前Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1
25問 • 5ヶ月前問題一覧
1
Cloud Composer で有向非巡回グラフを作成する
2
Cloud Pub/Sub トピックを使用してジョブを公開し、サブスクリプションを使用してジョブを実行します。
3
ランダムなユニバーサルユニーク識別子番号(バージョン 4 UUID)
4
集約エクスポートシンクを介して、監査ログ用に新しく作成されたプロジェクトの Cloud Storage バケットにデータアクセスログをエクスポートします。エクスポートされたログを含むプロジェクトへのアクセスを制限します。
5
BigQuery メトリック slots/allocated_for_project に基づいて Cloud Monitoring ダッシュボードを作成する
6
ドレインオプションを使用してCloud Dataflowパイプラインを停止します。更新されたコードで新しいCloud Dataflowジョブを作成します。
7
Transfer Appliance を使用してデータを Cloud Storage にコピーする
8
Dataprep by Trifacta を使用して変換レシピを構築および維持し、スケジュールに従って実行します。
9
gsutil ユーティリティを実行して、Cloud Storage バケットから Dataproc クラスタのマスターノードにすべての ORC ファイルを転送します。次に、Hadoop ユーティリティを実行して、それらを HDFS にコピーします。HDFS から Hive テーブルをマウントします。, Hadoop 用の Cloud Storage コネクタを活用して、ORC ファイルを外部 Hive テーブルとしてマウントします。外部 Hive テーブルをネイティブ Hive テーブルに複製します。
10
クラウドコンポーザー
11
画像のコーパスで AutoML モデルをトレーニングし、そのモデルを中心に API を構築して、パッケージ追跡アプリケーションと統合します。
12
各テーブルに対して、テーブルレベルでユーザー/グループにデータ閲覧権限を割り当てます。
13
Hadoop クラスタに十分な永続ディスク領域を割り当て、特定の Hadoop ジョブの中間データをネイティブ HDFS に保存します。
14
既存の Spark ML モデルのトレーニングには Dataproc を使用しますが、BigQuery から直接データを読み取り始めます。
15
ビッグクエリ
16
Kafka IO を使用して、Dataflow でデータストリームを消費します。5 分ごとに 1 時間のスライディングタイムウィンドウを設定します。ウィンドウの終了時に平均を計算し、平均が 4,000 件未満の場合はアラートを送信します。
17
あるゾーンに Cloud SQL インスタンスを作成し、同じリージョン内の別のゾーンにフェイルオーバー レプリカを作成します。
18
アパッチカフカ
19
Dataproc クラスタをデプロイします。標準の永続ディスクと 50% のプリエンプティブ ワーカーを使用します。データを Cloud Storage に保存し、スクリプト内の参照を hdfs:// から gs:// に変更します。
20
ハイパーパラメータの調整を実行する
21
すべての依存関係を VPC セキュリティ境界内の Cloud Storage バケットにコピーします
22
クラウドSQL
23
クラウドSQL
24
Bigtable に、Computer Engine のコンピュータ識別子と毎秒のサンプル時間を組み合わせた行キーを持つ狭いテーブルを作成します。
25
gcloud kms keys create を使用して対称鍵を作成します。次に、gcloud kms encrypt を使用して、作成した鍵と固有の追加認証データ(AAD)で各アーカイブファイルを暗号化します。gsutil cp を使用して、暗号化された各ファイルを Cloud Storage バケットにアップロードし、AAD は Google Cloud の外部に保管します。