問題一覧
1
プロジェクト A の周囲に境界を持つ組織内で VPC Service Controls を構成します。
2
開発環境でStandard Tier Memorystore for Redisインスタンスを作成します。force-data-lossデータ保護モードを使用して、手動フェイルオーバーを開始します。
3
共有する必要があるテーブルを CMEK のないデータセットにコピーします。このデータセットの Analytics Hub リストを作成します。
4
プロジェクト A とプロジェクト B の間に VPC ネットワーク ピアリングを設定します。ピアリングされたサブネット上のプロジェクト B に外部 IP アドレスのない Compute Engine インスタンスを作成し、Cloud SQL データベースへのプロキシ サーバーとして機能します。
5
新しいプライマリ インスタンスから 2 つの新しい読み取りレプリカを作成します。1 つは Region3 に、もう 1 つは新しいリージョンに作成します。
6
リスクのあるタスクを担当するオペレーターの on_failure_callback パラメータに通知ロジックを含む関数を割り当てます。
7
Datastream を使用して、オンプレミスの MySQL データベースから BigQuery にデータを複製します。オンプレミスのデータセンターと Google Cloud の間に Cloud Interconnect を設定します。接続方法としてプライベート接続を使用し、VPC ネットワーク内の IP アドレス範囲を Datastream の接続構成に割り当てます。Datastream で接続プロファイルを設定する際は、暗号化タイプとしてサーバーのみを使用します。
8
BigQuery Omni 機能と BigLake テーブルを使用して、Azure および AWS 内のファイルをクエリします。
9
データ サイエンス チームに Dataprep へのアクセス権を提供し、Cloud Storage 内のデータを準備、検証、探索できるようにします。
10
コードに Dataform アサーションを組み込みます。
11
Dataflow ジョブ内のメッセージは 30 秒未満で処理されますが、Pub/Sub サブスクリプションのバックログに追いつくことができません。ジョブを最適化するか、ワーカー数を増やすことでこの問題を解決できます。
12
データを BigQuery に移行します。Spark パイプラインをリファクタリングして BigQuery でデータの書き込みと読み取りを行い、Dataproc Serverless で実行します。
13
国とユーザー名のフィールドごとにテーブルをクラスター化します。
14
スタンダードティアで新しいMemorystore for Redisインスタンスを作成します。容量を5GBに設定し、複数のリードレプリカを作成します。古いインスタンスを削除します。
15
Pub/Sub サブスクリプションの retain-acked-messages フラグを使用します。, タイムスタンプ付きの Pub/Sub Seek を使用します。
16
可視化クエリのallow_non_incremental_definitionオプションをtrueに設定し、マテリアライズド・ビューを作成します。max_stalenessパラメータを4時間、enable_refreshパラメータをtrueに設定します。データ可視化ツールでマテリアライズド・ビューを参照します。
17
Dataproc を使用して Hadoop クラスタを Google Cloud に移行し、Cloud Storage を使用して HDFS のあらゆるユースケースに対応します。Cloud Composer を使用してパイプラインをオーケストレートします。
18
ワーカーの最大数を増やし、ワーカーの同時実行性を減らします。, Airflow ワーカーが使用できるメモリを増やします。
19
組織ポリシーの制約constraints/gcp.resourceLocationsをin:europe-west3-locationsに設定します。
20
利用可能な管理リソースチャートを使用して、スロットの使用状況とジョブのパフォーマンスを経時的に把握します。INFORMATION_SCHEMA に対してクエリを実行し、クエリのパフォーマンスを確認します。
21
1. 分析のために履歴データを BigQuery に保存します。2. Cloud SQL テーブルに、製品が変更されるたびに製品の最新の状態を保存します。3. 最新の状態データを Cloud SQL から直接 API に提供します。
22
1. Dataproc および BigQuery 演算子を使用して、Cloud Composer で順次タスクを含む Apache Airflow 有向非巡回グラフ(DAG)を作成します。2. パイプラインを通過する必要があるテーブルごとに個別の DAG を作成します。3. Cloud Storage オブジェクト トリガーを使用して、DAG をトリガーする Cloud Functions 関数を起動します。
23
リージョン A に高可用性の Cloud SQL インスタンスを作成します。リージョン B に高可用性のリードレプリカを作成します。複数のリージョンにカスケード型のリードレプリカを作成することで、読み取りワークロードをスケールアップします。リージョン A がダウンしている場合は、リージョン B のリードレプリカを昇格します。
24
Apache Beam SDK for Python を介して Dataflow でパイプラインを作成し、ストリーミング、バッチ処理、Cloud DLP のコード内で個別のオプションをカスタマイズします。データシンクとして BigQuery を選択します。
25
クラウドSQL
全商情報処理検定1級
全商情報処理検定1級
ユーザ名非公開 · 258問 · 9日前全商情報処理検定1級
全商情報処理検定1級
258問 • 9日前LPIC305
LPIC305
たいよ · 100問 · 23日前LPIC305
LPIC305
100問 • 23日前プロモ豆
プロモ豆
まいやま · 21問 · 27日前プロモ豆
プロモ豆
21問 • 27日前プロモ豆
プロモ豆
まいやま · 16問 · 27日前プロモ豆
プロモ豆
16問 • 27日前認定Platformアドミニストレーター 問題集(TysonBlog_2)
認定Platformアドミニストレーター 問題集(TysonBlog_2)
myukyosh · 81問 · 27日前認定Platformアドミニストレーター 問題集(TysonBlog_2)
認定Platformアドミニストレーター 問題集(TysonBlog_2)
81問 • 27日前Salesforce 認定 Data Cloud コンサルタント (note)
Salesforce 認定 Data Cloud コンサルタント (note)
ユーザ名非公開 · 100問 · 1ヶ月前Salesforce 認定 Data Cloud コンサルタント (note)
Salesforce 認定 Data Cloud コンサルタント (note)
100問 • 1ヶ月前医療画像情報学
医療画像情報学
ユーザ名非公開 · 63問 · 1ヶ月前医療画像情報学
医療画像情報学
63問 • 1ヶ月前疫学・統計学(木)
疫学・統計学(木)
市川ひとみ · 43問 · 1ヶ月前疫学・統計学(木)
疫学・統計学(木)
43問 • 1ヶ月前THE DATA 都市開発部 シャトルセブン
THE DATA 都市開発部 シャトルセブン
Yu Yamanaka · 7問 · 4ヶ月前THE DATA 都市開発部 シャトルセブン
THE DATA 都市開発部 シャトルセブン
7問 • 4ヶ月前問題集B③(Ping-t)
問題集B③(Ping-t)
未 · 34問 · 5ヶ月前問題集B③(Ping-t)
問題集B③(Ping-t)
34問 • 5ヶ月前保健統計
保健統計
ユーザ名非公開 · 55問 · 5ヶ月前保健統計
保健統計
55問 • 5ヶ月前IVEC
IVEC
あーにー · 51問 · 5ヶ月前IVEC
IVEC
51問 • 5ヶ月前chapter1
chapter1
ユーザ名非公開 · 39問 · 5ヶ月前chapter1
chapter1
39問 • 5ヶ月前理学療法研究法
理学療法研究法
ユーザ名非公開 · 15問 · 6ヶ月前理学療法研究法
理学療法研究法
15問 • 6ヶ月前数値解析の原理_1
数値解析の原理_1
ユーザ名非公開 · 100問 · 6ヶ月前数値解析の原理_1
数値解析の原理_1
100問 • 6ヶ月前Salesforce 認定Platformアプリケーションビルダー,TysonBlog,201-
Salesforce 認定Platformアプリケーションビルダー,TysonBlog,201-
ユーザ名非公開 · 76問 · 7ヶ月前Salesforce 認定Platformアプリケーションビルダー,TysonBlog,201-
Salesforce 認定Platformアプリケーションビルダー,TysonBlog,201-
76問 • 7ヶ月前第一学期期末考査
第一学期期末考査
ユーザ名非公開 · 78問 · 7ヶ月前第一学期期末考査
第一学期期末考査
78問 • 7ヶ月前ディープラーニングの概要
ディープラーニングの概要
ユーザ名非公開 · 42問 · 7ヶ月前ディープラーニングの概要
ディープラーニングの概要
42問 • 7ヶ月前リスキリング
リスキリング
ユーザ名非公開 · 16問 · 7ヶ月前リスキリング
リスキリング
16問 • 7ヶ月前問題一覧
1
プロジェクト A の周囲に境界を持つ組織内で VPC Service Controls を構成します。
2
開発環境でStandard Tier Memorystore for Redisインスタンスを作成します。force-data-lossデータ保護モードを使用して、手動フェイルオーバーを開始します。
3
共有する必要があるテーブルを CMEK のないデータセットにコピーします。このデータセットの Analytics Hub リストを作成します。
4
プロジェクト A とプロジェクト B の間に VPC ネットワーク ピアリングを設定します。ピアリングされたサブネット上のプロジェクト B に外部 IP アドレスのない Compute Engine インスタンスを作成し、Cloud SQL データベースへのプロキシ サーバーとして機能します。
5
新しいプライマリ インスタンスから 2 つの新しい読み取りレプリカを作成します。1 つは Region3 に、もう 1 つは新しいリージョンに作成します。
6
リスクのあるタスクを担当するオペレーターの on_failure_callback パラメータに通知ロジックを含む関数を割り当てます。
7
Datastream を使用して、オンプレミスの MySQL データベースから BigQuery にデータを複製します。オンプレミスのデータセンターと Google Cloud の間に Cloud Interconnect を設定します。接続方法としてプライベート接続を使用し、VPC ネットワーク内の IP アドレス範囲を Datastream の接続構成に割り当てます。Datastream で接続プロファイルを設定する際は、暗号化タイプとしてサーバーのみを使用します。
8
BigQuery Omni 機能と BigLake テーブルを使用して、Azure および AWS 内のファイルをクエリします。
9
データ サイエンス チームに Dataprep へのアクセス権を提供し、Cloud Storage 内のデータを準備、検証、探索できるようにします。
10
コードに Dataform アサーションを組み込みます。
11
Dataflow ジョブ内のメッセージは 30 秒未満で処理されますが、Pub/Sub サブスクリプションのバックログに追いつくことができません。ジョブを最適化するか、ワーカー数を増やすことでこの問題を解決できます。
12
データを BigQuery に移行します。Spark パイプラインをリファクタリングして BigQuery でデータの書き込みと読み取りを行い、Dataproc Serverless で実行します。
13
国とユーザー名のフィールドごとにテーブルをクラスター化します。
14
スタンダードティアで新しいMemorystore for Redisインスタンスを作成します。容量を5GBに設定し、複数のリードレプリカを作成します。古いインスタンスを削除します。
15
Pub/Sub サブスクリプションの retain-acked-messages フラグを使用します。, タイムスタンプ付きの Pub/Sub Seek を使用します。
16
可視化クエリのallow_non_incremental_definitionオプションをtrueに設定し、マテリアライズド・ビューを作成します。max_stalenessパラメータを4時間、enable_refreshパラメータをtrueに設定します。データ可視化ツールでマテリアライズド・ビューを参照します。
17
Dataproc を使用して Hadoop クラスタを Google Cloud に移行し、Cloud Storage を使用して HDFS のあらゆるユースケースに対応します。Cloud Composer を使用してパイプラインをオーケストレートします。
18
ワーカーの最大数を増やし、ワーカーの同時実行性を減らします。, Airflow ワーカーが使用できるメモリを増やします。
19
組織ポリシーの制約constraints/gcp.resourceLocationsをin:europe-west3-locationsに設定します。
20
利用可能な管理リソースチャートを使用して、スロットの使用状況とジョブのパフォーマンスを経時的に把握します。INFORMATION_SCHEMA に対してクエリを実行し、クエリのパフォーマンスを確認します。
21
1. 分析のために履歴データを BigQuery に保存します。2. Cloud SQL テーブルに、製品が変更されるたびに製品の最新の状態を保存します。3. 最新の状態データを Cloud SQL から直接 API に提供します。
22
1. Dataproc および BigQuery 演算子を使用して、Cloud Composer で順次タスクを含む Apache Airflow 有向非巡回グラフ(DAG)を作成します。2. パイプラインを通過する必要があるテーブルごとに個別の DAG を作成します。3. Cloud Storage オブジェクト トリガーを使用して、DAG をトリガーする Cloud Functions 関数を起動します。
23
リージョン A に高可用性の Cloud SQL インスタンスを作成します。リージョン B に高可用性のリードレプリカを作成します。複数のリージョンにカスケード型のリードレプリカを作成することで、読み取りワークロードをスケールアップします。リージョン A がダウンしている場合は、リージョン B のリードレプリカを昇格します。
24
Apache Beam SDK for Python を介して Dataflow でパイプラインを作成し、ストリーミング、バッチ処理、Cloud DLP のコード内で個別のオプションをカスタマイズします。データシンクとして BigQuery を選択します。
25
クラウドSQL