PCA150-
問題一覧
1
A. GKE クラスタをプライベート クラスタとして構成し、クラスタ サブネットに Cloud NAT ゲートウェイを構成します。
2
D. サーバーレス VPC アクセスを構成します。
3
D. 1. gsutil -m を使用してファイルを Cloud Storage にアップロードします。 2. gsutil hash -c FILE_NAME を使用して、すべてのオンプレミス ファイルの CRC32C ハッシュを生成します。 3. gsutil ls -L gs://[YOUR_BUCKET_NAME] を使用して、アップロードされたファイルの CRC32C ハッシュを収集します。 4. ハッシュを比較します。
4
A. Anthos Service Mesh をクラスタにインストールします。 Google Cloud Console を使用してサービス レベル目標 (SLO) を定義し、この SLO に基づいてアラート ポリシーを作成します。
5
C. asia-southeast1 に 2 つ目の GKE クラスタを作成し、kubemci を使用してグローバル HTTP(s) ロードバランサを作成します。
6
D. アプリケーションの現在のオンプレミス仮想マシンと同様の CPU およびメモリ オプションを使用して Compute Engine インスタンスを作成します。 Cloud Monitoring エージェントをインストールし、サードパーティ アプリケーションをデプロイします。アプリケーションで通常のトラフィック レベルで負荷テストを実行し、Cloud Console の適切なサイズの推奨事項に従います。
7
C. VPC Service Controls を構成し、プライベート Google アクセスを構成します。
8
D. Compute Engine インスタンスを作成するときにノード名に基づいてノード アフィニティ ラベルを使用し、各ワークロードを正しいノードでホストします。
9
B.自動スケーリングを備えた Google Compute Engine マネージドインスタンスグループ
10
C. クラウド運用チームおよびエンジニアと会い、ロード バランサーのオプションについて話し合う
11
D. ファイル本体にメタデータを追加する 個々のファイルを圧縮する ランダムなプレフィックス パターンでファイルに名前を付ける ファイルを 1 つのバケットに保存する
12
C. コンソールの [ロギング] セクションで、ロギング セクションとして GCE ネットワークを指定します。 「Create Insert」エントリを検索します。
13
D. ルート ディスクのスナップショットを作成し、そのスナップショットから Google Cloud Storage にイメージ ファイルを作成し、ルート ディスクのイメージ ファイルを使用して米国東部リージョンに新しい仮想マシン インスタンスを作成します。
14
B. ローカル SSD ボリュームをバックアップの場所としてマウントします。バックアップが完了したら、gsutil を使用してバックアップを Google Cloud Storage に移動します。
15
A.負荷テストで Cloud Bigtable のパフォーマンスを検証することを確認します。, B.負荷テスト環境に使用する別の Google Cloud プロジェクトを作成する, F.詳細なログ記録とメトリクス収集を使用して、負荷テストツールとターゲットサービスを計測する
16
B. 組織ビューア、プロジェクトビューア
17
D.コード姿と、CI/CDパイプラインと統合された信頼できるバイナリリポジトリを有効にする, E.継続的インテグレーション/継続的デリバリー (CI/CD) パイプラインの一部として脆弱性セキュリティスキャナーを実行する
18
C. 次のコマンドを使用して、既存の Kubernetes Engine クラスタを更新します: gcloud alpha container clusters update mycluster - -enable-autoscaling - -min-nodes=1 - -max-nodes=10
19
A. Google App Engine を使用してウェブサイトを提供し、Google Cloud Datastore を使用してユーザー データを保存します。, C. マネージド インスタンス グループを使用してウェブサイトを提供し、Google Cloud Bigtable を使用してユーザー データを保存します。
20
B. Google Kubernetes Engine とコンテナ, C. Google App Engine スタンダード環境
21
C. 各タイムスタンプとログエントリにデジタル署名し、署名を保存する
22
C. 1. 「Development」および「Production.」という名前の組織リソースの下にフォルダーを作成します。 2. すべての開発者に「Development」フォルダーに対するプロジェクト作成者の IAM ロールを付与します。 3. 開発者プロジェクトを「Development」フォルダに移動します。 4. 組織上のすべてのプロジェクトにポリシーを設定します。 5. さらに、「Production」フォルダに実稼働ポリシーを設定します。
23
D. 1. Compute Engine インスタンスを含むマネージド インスタンス グループを作成します。 2. グローバル ロード バランサを作成し、次の 2 つのバックエンドで構成します。 「マネージド インスタンス グループ」 「クラウド ストレージ バケット」 3.バケットバックエンドで Cloud CDN が有効になります。
24
A. Cloud Logging でフィルタを設定し、保存するログのエクスポート先として Cloud Storage バケットを設定します。
25
A. Dataflow パイプラインを作成して、外部ソースからデータを取得します。パイプラインの一部として、Cloud Data Loss Prevention (Cloud DLP) API を使用して PII データを削除します。結果を BigQuery に保存します。
26
A. Production フォルダーに集約エクスポートを作成します。ログシンクを運用プロジェクトの Cloud Storage バケットに設定します。
27
A. 1. すべてのインスタンスに Cloud Logging エージェントをインストールします。 2. シンクを作成して、ログを地域の Cloud Storage バケットにエクスポートします。 3. 1 か月後にファイルを Coldline Cloud Storage バケットに移動するオブジェクト ライフサイクル ルールを作成します。 4. バケット ロックを使用して、バケット レベルで保持ポリシーを構成します。
28
A. ドメインごとに ID を制限するように組織ポリシーを構成します。
29
C. RowKey 戦略を見直し、キーがアルファベット全体に均等に分散されていることを確認します。
30
C. 1. データ サイエンス チーム用のデータセットを作成します。 2. PII を除く、共有するテーブルのビューを作成します。 3. 適切なプロジェクト レベルの IAM 役割をデータ サイエンス チームのメンバーに割り当てます。 4. ビューを含むデータセットにアクセス制御を割り当てます。 5. ビューがソース データセットにアクセスすることを承認します。
31
B. Storage Transfer Service を使用してデータを移動します。
32
C. インスタンス削除ログ メッセージが Cloud Logging に到着した後に Cloud Functions をトリガーする Cloud Monitoring シンクを設定します。
33
A. Google Cloud Console で Google Cloud Shell を使用して、Google Cloud と対話します。
34
C. 各共有 VPC とピア Cloud VPN に Cloud VPN ゲートウェイを設定します。
35
A. Cloud Logging と Cloud Monitoring のインスタンスのログと指標を検査します。
36
A. Pod 仕様で liveness プローブと readiness プローブを構成します。
37
C. すべてのステートレス ワークロードおよびすべての互換性のあるステートフル ワークロードに対して horizontalPodAutoscaler を構成します。ノードの自動スケーリングを使用するようにクラスターを構成します。
38
B. 1. Cloud Logging シンクを作成して、BigQuery データ アクセス ログを BigQuery にエクスポートします。 2. 生成されたテーブルに対して BigQuery クエリを実行して、必要な情報を抽出します。
39
A. vpc-a と vpc-b の間にネットワーク ピアリングを設定します。
40
B. オブジェクトのバージョン管理
41
C. フィルタを metric.label.state = 'used' AND metric.label.state = 'buffered' AND metric.label.state = 'cached' AND metric.label.state = 'slab' に変更します。
42
A. 2 つのトンネルでオンプレミス VPN ゲートウェイに接続された HA Cloud VPN ゲートウェイ
43
A. 1. App Engine アプリケーションのベース URL が許可されたオリジンであるターゲット Cloud Storage バケットに CORS 構成を設定します。 2. Cloud Storage 署名付き URL 機能を使用して、POST URL を生成します。
44
B. クラウド NAT を設定し、NAT マッピング セクションで sub-b を選択します。
45
D. 1. オンプレミス仮想マシンのイメージを作成します。 2. --os=windows-2022-dc-v を使用して、Compute Engine にイメージを仮想ディスクとしてインポートします。 3. インポートされたディスクをブートディスクとして使用する単一テナンシー インスタンスを Compute Engine 上に作成します。
46
A. 2 つのトンネルを使用してオンプレミス VPN ゲートウェイに接続された HA Cloud VPN ゲートウェイ。
47
D. gcloud storage cp を使用してデータをアップロードします。
48
D. Pub/Sub エミュレータを使用します。
49
C. 外部メトリックに基づく水平ポッド オートスケーラー
50
A. HTTP リクエストを使用して、Metadata-Flavor: Google ヘッダーを持つ http://metadata.google.internal/ エンドポイントで利用可能なメタデータ サーバーをクエリします。
ACE100-
ACE100-
Keisei Yamamoto · 50問 · 2年前ACE100-
ACE100-
50問 • 2年前ACE150-
ACE150-
Keisei Yamamoto · 50問 · 2年前ACE150-
ACE150-
50問 • 2年前ACE200-
ACE200-
Keisei Yamamoto · 45問 · 2年前ACE200-
ACE200-
45問 • 2年前PCA100-
PCA100-
Keisei Yamamoto · 50問 · 2年前PCA100-
PCA100-
50問 • 2年前PCA200-
PCA200-
Keisei Yamamoto · 58問 · 2年前PCA200-
PCA200-
58問 • 2年前問題一覧
1
A. GKE クラスタをプライベート クラスタとして構成し、クラスタ サブネットに Cloud NAT ゲートウェイを構成します。
2
D. サーバーレス VPC アクセスを構成します。
3
D. 1. gsutil -m を使用してファイルを Cloud Storage にアップロードします。 2. gsutil hash -c FILE_NAME を使用して、すべてのオンプレミス ファイルの CRC32C ハッシュを生成します。 3. gsutil ls -L gs://[YOUR_BUCKET_NAME] を使用して、アップロードされたファイルの CRC32C ハッシュを収集します。 4. ハッシュを比較します。
4
A. Anthos Service Mesh をクラスタにインストールします。 Google Cloud Console を使用してサービス レベル目標 (SLO) を定義し、この SLO に基づいてアラート ポリシーを作成します。
5
C. asia-southeast1 に 2 つ目の GKE クラスタを作成し、kubemci を使用してグローバル HTTP(s) ロードバランサを作成します。
6
D. アプリケーションの現在のオンプレミス仮想マシンと同様の CPU およびメモリ オプションを使用して Compute Engine インスタンスを作成します。 Cloud Monitoring エージェントをインストールし、サードパーティ アプリケーションをデプロイします。アプリケーションで通常のトラフィック レベルで負荷テストを実行し、Cloud Console の適切なサイズの推奨事項に従います。
7
C. VPC Service Controls を構成し、プライベート Google アクセスを構成します。
8
D. Compute Engine インスタンスを作成するときにノード名に基づいてノード アフィニティ ラベルを使用し、各ワークロードを正しいノードでホストします。
9
B.自動スケーリングを備えた Google Compute Engine マネージドインスタンスグループ
10
C. クラウド運用チームおよびエンジニアと会い、ロード バランサーのオプションについて話し合う
11
D. ファイル本体にメタデータを追加する 個々のファイルを圧縮する ランダムなプレフィックス パターンでファイルに名前を付ける ファイルを 1 つのバケットに保存する
12
C. コンソールの [ロギング] セクションで、ロギング セクションとして GCE ネットワークを指定します。 「Create Insert」エントリを検索します。
13
D. ルート ディスクのスナップショットを作成し、そのスナップショットから Google Cloud Storage にイメージ ファイルを作成し、ルート ディスクのイメージ ファイルを使用して米国東部リージョンに新しい仮想マシン インスタンスを作成します。
14
B. ローカル SSD ボリュームをバックアップの場所としてマウントします。バックアップが完了したら、gsutil を使用してバックアップを Google Cloud Storage に移動します。
15
A.負荷テストで Cloud Bigtable のパフォーマンスを検証することを確認します。, B.負荷テスト環境に使用する別の Google Cloud プロジェクトを作成する, F.詳細なログ記録とメトリクス収集を使用して、負荷テストツールとターゲットサービスを計測する
16
B. 組織ビューア、プロジェクトビューア
17
D.コード姿と、CI/CDパイプラインと統合された信頼できるバイナリリポジトリを有効にする, E.継続的インテグレーション/継続的デリバリー (CI/CD) パイプラインの一部として脆弱性セキュリティスキャナーを実行する
18
C. 次のコマンドを使用して、既存の Kubernetes Engine クラスタを更新します: gcloud alpha container clusters update mycluster - -enable-autoscaling - -min-nodes=1 - -max-nodes=10
19
A. Google App Engine を使用してウェブサイトを提供し、Google Cloud Datastore を使用してユーザー データを保存します。, C. マネージド インスタンス グループを使用してウェブサイトを提供し、Google Cloud Bigtable を使用してユーザー データを保存します。
20
B. Google Kubernetes Engine とコンテナ, C. Google App Engine スタンダード環境
21
C. 各タイムスタンプとログエントリにデジタル署名し、署名を保存する
22
C. 1. 「Development」および「Production.」という名前の組織リソースの下にフォルダーを作成します。 2. すべての開発者に「Development」フォルダーに対するプロジェクト作成者の IAM ロールを付与します。 3. 開発者プロジェクトを「Development」フォルダに移動します。 4. 組織上のすべてのプロジェクトにポリシーを設定します。 5. さらに、「Production」フォルダに実稼働ポリシーを設定します。
23
D. 1. Compute Engine インスタンスを含むマネージド インスタンス グループを作成します。 2. グローバル ロード バランサを作成し、次の 2 つのバックエンドで構成します。 「マネージド インスタンス グループ」 「クラウド ストレージ バケット」 3.バケットバックエンドで Cloud CDN が有効になります。
24
A. Cloud Logging でフィルタを設定し、保存するログのエクスポート先として Cloud Storage バケットを設定します。
25
A. Dataflow パイプラインを作成して、外部ソースからデータを取得します。パイプラインの一部として、Cloud Data Loss Prevention (Cloud DLP) API を使用して PII データを削除します。結果を BigQuery に保存します。
26
A. Production フォルダーに集約エクスポートを作成します。ログシンクを運用プロジェクトの Cloud Storage バケットに設定します。
27
A. 1. すべてのインスタンスに Cloud Logging エージェントをインストールします。 2. シンクを作成して、ログを地域の Cloud Storage バケットにエクスポートします。 3. 1 か月後にファイルを Coldline Cloud Storage バケットに移動するオブジェクト ライフサイクル ルールを作成します。 4. バケット ロックを使用して、バケット レベルで保持ポリシーを構成します。
28
A. ドメインごとに ID を制限するように組織ポリシーを構成します。
29
C. RowKey 戦略を見直し、キーがアルファベット全体に均等に分散されていることを確認します。
30
C. 1. データ サイエンス チーム用のデータセットを作成します。 2. PII を除く、共有するテーブルのビューを作成します。 3. 適切なプロジェクト レベルの IAM 役割をデータ サイエンス チームのメンバーに割り当てます。 4. ビューを含むデータセットにアクセス制御を割り当てます。 5. ビューがソース データセットにアクセスすることを承認します。
31
B. Storage Transfer Service を使用してデータを移動します。
32
C. インスタンス削除ログ メッセージが Cloud Logging に到着した後に Cloud Functions をトリガーする Cloud Monitoring シンクを設定します。
33
A. Google Cloud Console で Google Cloud Shell を使用して、Google Cloud と対話します。
34
C. 各共有 VPC とピア Cloud VPN に Cloud VPN ゲートウェイを設定します。
35
A. Cloud Logging と Cloud Monitoring のインスタンスのログと指標を検査します。
36
A. Pod 仕様で liveness プローブと readiness プローブを構成します。
37
C. すべてのステートレス ワークロードおよびすべての互換性のあるステートフル ワークロードに対して horizontalPodAutoscaler を構成します。ノードの自動スケーリングを使用するようにクラスターを構成します。
38
B. 1. Cloud Logging シンクを作成して、BigQuery データ アクセス ログを BigQuery にエクスポートします。 2. 生成されたテーブルに対して BigQuery クエリを実行して、必要な情報を抽出します。
39
A. vpc-a と vpc-b の間にネットワーク ピアリングを設定します。
40
B. オブジェクトのバージョン管理
41
C. フィルタを metric.label.state = 'used' AND metric.label.state = 'buffered' AND metric.label.state = 'cached' AND metric.label.state = 'slab' に変更します。
42
A. 2 つのトンネルでオンプレミス VPN ゲートウェイに接続された HA Cloud VPN ゲートウェイ
43
A. 1. App Engine アプリケーションのベース URL が許可されたオリジンであるターゲット Cloud Storage バケットに CORS 構成を設定します。 2. Cloud Storage 署名付き URL 機能を使用して、POST URL を生成します。
44
B. クラウド NAT を設定し、NAT マッピング セクションで sub-b を選択します。
45
D. 1. オンプレミス仮想マシンのイメージを作成します。 2. --os=windows-2022-dc-v を使用して、Compute Engine にイメージを仮想ディスクとしてインポートします。 3. インポートされたディスクをブートディスクとして使用する単一テナンシー インスタンスを Compute Engine 上に作成します。
46
A. 2 つのトンネルを使用してオンプレミス VPN ゲートウェイに接続された HA Cloud VPN ゲートウェイ。
47
D. gcloud storage cp を使用してデータをアップロードします。
48
D. Pub/Sub エミュレータを使用します。
49
C. 外部メトリックに基づく水平ポッド オートスケーラー
50
A. HTTP リクエストを使用して、Metadata-Flavor: Google ヘッダーを持つ http://metadata.google.internal/ エンドポイントで利用可能なメタデータ サーバーをクエリします。