暗記メーカー
ログイン
PDE_page4
  • ユーザ名非公開

  • 問題数 50 • 1/2/2025

    記憶度

    完璧

    7

    覚えた

    19

    うろ覚え

    0

    苦手

    0

    未解答

    0

    アカウント登録して、解答結果を保存しよう

    問題一覧

  • 1

    (Q#151) あなたは広告会社で働いており、広告ブロックのクリック率を予測するための Spark ML モデルを開発しました。あなたはオンプレミスのデータセンターですべてを開発してきましたが、現在あなたの会社は Google Cloud に移行しています。データセンターはまもなく閉鎖されるため、迅速なリフトアンドシフト移行が必要です。ただし、使用してきたデータは BigQuery に移行されます。Spark ML モデルは定期的に再トレーニングするため、既存のトレーニングパイプラインを Google Cloud に移行する必要があります。あなたは何をすべきですか?

    既存の Spark ML モデルのトレーニングに Dataproc を使用しますが、BigQuery から直接データの読み取りを開始します

  • 2

    (Q#152) あなたはグローバルな運送会社で働いています。40 TB のデータでモデルをトレーニングして、特定の日に各地理的地域でどの船舶が配達の遅延を引き起こす可能性が高いかを予測したいと考えています。このモデルは、複数のソースから収集された複数の属性に基づいています。GeoJSON 形式の場所を含むテレメトリデータは、各船舶からプルされ、1 時間ごとにロードされます。地域内で遅延を引き起こす可能性のある船舶の数と船舶を示すダッシュボードが必要です。予測と地理空間処理のネイティブ機能を備えたストレージソリューションを使用したいと考えています。どのストレージソリューションを使用する必要がありますか?

    BigQuery

  • 3

    (Q#153) 通常 1 秒あたり約 5000 件のメッセージを受信する Apache Kafka を中心に構築された IoT パイプラインを運用しています。1 時間の移動平均が 1 秒あたり 4000 メッセージを下回るとすぐにアラートを作成するために Google Cloud Platform を使用したいと考えています。あなたは何をすべきですか?

    Kafka IO を使用して Dataflow でデータストリームを消費します。5 分ごとに 1 時間のスライディング時間枠を設定します。ウィンドウが閉じると平均を計算し、平均が 4000 メッセージ未満の場合はアラートを送信します。

  • 4

    (Q#154) MySQL を使用して Cloud SQL をデプロイすることを計画しています。ゾーン障害が発生した場合に備えて、高可用性を確保する必要があります。あなたは何をすべきですか?

    1 つのゾーンに Cloud SQL インスタンスを作成し、同じリージョン内の別のゾーンにフェイルオーバーレプリカを作成します。

  • 5

    (Q#155) 貴社はデータの取り込みと配信を一元化するシステムを選定しています。要件に対応するため、メッセージングシステムとデータ統合システムを検討しています。主な要件は以下のとおりです: ・トピック内の特定のオフセットにシークする機能。 ・数百のトピックに対するパブリッシュ/サブスクライブセマンティクスのサポート。 ・キーごとの順序付けの保持 どのシステムを選ぶべきか?

    Apache Kafka

  • 6

    (Q#156) 現在オンプレミスで運用している Apache Hadoop デプロイをクラウドに移行することを計画しています。長時間実行されるバッチジョブに対して、デプロイができるだけフォールトトレラントで費用対効果が高くなるようにする必要があります。マネージドサービスを使用したいと考えています。あなたは何をすべきですか?

    Dataproc クラスタをデプロイします。標準の永続ディスクと 50% のプリエンプティブワーカーを使用します。データを Cloud Storage に保存し、スクリプト内の参照を hdfs:// から gs:// に変更します

  • 7

    (Q#157) あなたのチームはバイナリ分類問題に取り組んでいます。デフォルトのパラメータでサポートベクターマシン (SVM) 分類器をトレーニングし、検証セットで 0.87 の曲線下面積 (AUC) を取得しました。モデルの AUC を増やしたいと考えています。あなたは何をすべきですか?

    ハイパーパラメータチューニングを実行します

  • 8

    (Q#158) 既存の初期化アクションを使用して、起動時に Cloud Dataproc クラスタのすべてのノードに追加の依存関係をデプロイする必要があります。会社のセキュリティポリシーでは、Cloud Dataproc ノードがインターネットにアクセスできないため、パブリック初期化アクションはリソースを取得できません。あなたは何をすべきですか?

    すべての依存関係を VPC セキュリティ境界内にある Cloud Storage バケットにコピーします

  • 9

    (Q#159) 次の要件を満たす新しいプロジェクトのデータベースを選択する必要があります。 ・完全に管理されている ・自動的にスケールアップできる ・トランザクション的に一貫性がある ・6 TB までスケールアップできる ・SQL を使用してクエリできる どのデータベースを選択しますか?

    Cloud SQL

  • 10

    (Q#160) あなたは、運用システムのトランザクションデータをオンプレミスのデータベースから GCP に移行する必要がある中規模企業で働いています。データベースのサイズは約 20 TB です。どのデータベースを選択する必要がありますか?

    Cloud SQL

  • 11

    (Q#161) 数百万台のコンピュータの時系列 CPU とメモリ使用量を保存するデータベースを選択する必要があります。このデータを 1 秒間隔のサンプルに保存する必要があります。アナリストは、データベースに対してリアルタイムのアドホック分析を実行します。実行されたクエリごとに課金されるのを避け、スキーマ設計によってデータセットの将来の成長が可能になるようにする必要があります。どのデータベースとデータモデルを選択する必要がありますか?

    Compute Engine コンピュータ識別子と毎秒のサンプル時間を組み合わせた行キーを使用して、Bigtable にナローテーブルを作成します

  • 12

    (Q#162) Cloud Storage にデータをアーカイブする必要があります。一部のデータは非常に機密性が高いため、クラウドプロバイダーのスタッフがデータを復号化できないように、「Trust No One」(TNO)アプローチを使用してデータを暗号化する必要があります。あなたは何をすべきですか?

    gcloud kms keys create を使用して対称鍵を作成します。次に、gcloud kms encrypt を使用して、各アーカイブファイルを鍵と一意の追加認証データ (AAD) で暗号化します。gsutil cp を使用して各暗号化ファイルを Cloud Storage バケットにアップロードし、AAD を Google Cloud の外部に保持します。

  • 13

    (Q#163) BigQuery、Dataflow、Dataproc で実行されているデータパイプラインがあります。ヘルスチェックを実行して動作を監視し、パイプラインが失敗した場合はパイプラインを管理しているチームに通知する必要があります。また、複数のプロジェクトで作業できる必要があります。マネージド製品またはプラットフォームの機能を使用することをお勧めします。あなたは何をすべきですか?

    情報を Cloud Monitoring にエクスポートし、アラートポリシーを設定します

  • 14

    (Q#164) BigQuery ML で線形回帰モデルに取り組んでおり、顧客が会社の製品を購入する可能性を予測しています。モデルは、都市名変数を主要な予測コンポーネントとして使用します。モデルをトレーニングして提供するには、データを列に整理する必要があります。予測可能な変数を維持しながら、最小限のコーディングでデータを準備する必要があります。あなたは何をすべきですか?

    BigQuery で SQL を使用して、ワンホットエンコーディング方式で状態列を変換し、各都市をバイナリ値を持つ列にします。

  • 15

    (Q#165) あなたは、北米中の場所で事業を行っている大規模銀行で働いています。銀行口座の取引を処理するデータストレージシステムをセットアップしています。ACID コンプライアンスと SQL を使用してデータにアクセスできる必要があります。どのソリューションが適切ですか?

    Cloud Spanner にトランザクションを保存します。ロック読み取り/書き込みトランザクションを使用します。

  • 16

    (Q#166) 運送会社は、リアルタイムで Apache Kafka ストリームに送信されるライブパッケージ追跡データを持っています。これはその後 BigQuery にロードされます。会社のアナリストは、BigQuery で追跡データをクエリして、パッケージのライフサイクルにおける地理空間的な傾向を分析したいと考えています。テーブルはもともと、取り込み日付のパーティション分割を使用して作成されました。時間の経過とともに、クエリ処理時間が増加しています。BigQuery でクエリのパフォーマンスを向上させる変更を実装する必要があります。あなたは何をすべきですか?

    パッケージ追跡 ID 列で BigQuery にクラスタリングを実装します。

  • 17

    (Q#167) あなたの会社は現在、コロケーション施設で Spark、Hive、HDFS を使用して大規模なオンプレミスクラスタを実行しています。クラスタは、システムのピーク使用量に対応するように設計されています。ただし、多くのジョブは本質的にバッチであり、クラスタの使用量は非常に大きく変動します。あなたの会社は、オンプレミスのインフラストラクチャとメンテナンスに関連するオーバーヘッドを削減し、コスト削減のメリットを享受するために、クラウドに移行することを熱望しています。また、クラウドの利点を活用するために、既存のインフラストラクチャを最新化して、より多くのサーバーレスオファリングを使用したいと考えています。コロケーション施設との契約更新のタイミングにより、初期移行には 2 か月しかありません。時間内に移行を実行しながら、クラウドでのコスト削減を最大化できるように、今後の移行戦略にどのように取り組むことをお勧めしますか?

    ワークロードを Dataproc と Cloud Storage に移行します。後で最新化します。

  • 18

    (Q#168) あなたは、顧客がオンラインで登録できる金融機関で働いています。新規顧客が登録すると、ユーザーデータは Pub/Sub に送信され、その後 BigQuery に取り込まれます。セキュリティ上の理由から、顧客の政府発行の識別番号を編集し、必要に応じてカスタマーサービス担当者が元の値を表示できるようにすることにしました。あなたは何をすべきですか?

    データを BigQuery にロードする前に、Cloud Data Loss Prevention(DLP)を使用して入力値を暗号化された形式保持暗号化トークンに置き換えます。

  • 19

    (Q#169) テーブルを BigQuery に移行しており、データモデルを決定しています。テーブルには、複数の店舗の場所で行われた購入に関連する情報が保存されており、トランザクションの時刻、購入されたアイテム、店舗 ID、店舗が所在する都市と州などの情報が含まれています。過去 30 日間に各アイテムがいくつ販売されたかを確認し、州、都市、個々の店舗ごとの購入傾向を確認するために、このテーブルを頻繁にクエリします。最高のクエリパフォーマンスを得るには、このテーブルをどのようにモデル化する必要がありますか?

    トランザクション時間でパーティション分割します。最初に州、次に都市、次に店舗 ID でクラスタリングします。

  • 20

    (Q#170) Pub/Sub フィードのサブスクライバーのコードを更新しています。デプロイ時にサブスクライバーが誤ってメッセージを承認し、メッセージが失われる可能性があることを懸念しています。サブスクライバーは、承認されたメッセージを保持するように設定されていません。デプロイ後にエラーから回復できるようにするにはどうすればよいですか?

    新しいサブスクライバーコードをデプロイする前に、Pub/Sub スナップショットを作成します。シーク操作を使用して、スナップショットの作成後に使用可能になったメッセージを再配信します。

  • 21

    (Q#171) あなたは、機械学習に使用するために 6 TB の住宅販売データを準備している大規模な不動産会社で働いています。SQL を使用してデータを変換し、BigQuery ML を使用して機械学習モデルを作成します。変換されていない raw データセットに対して予測を行うためにモデルを使用することを計画しています。予測時に歪みを防ぐために、ワークフローをどのように設定する必要がありますか?

    モデルを作成するときは、BigQuery の TRANSFORM 句を使用して前処理手順を定義します。予測時には、raw 入力データに 変換を指定せずに BigQuery の ML.EVALUATE 句を使用します。

  • 22

    (Q#172) あなたは会社の株価を分析しています。5 秒ごとに、過去 30 秒分のデータの移動平均を計算する必要があります。Pub/Sub からデータを読み取り、DataFlow を使用して分析を行っています。ウィンドウパイプラインをどのように設定する必要がありますか?

    期間が 30 秒、期間が 5 秒のスライディングウィンドウを使用します。次のトリガーを設定して結果を出力します。AfterWatermark.pastEndOfWindow()

  • 23

    (Q#173) アプリケーションイベントを Pub/Sub トピックに公開するパイプラインを設計しています。メッセージの順序は重要ではありませんが、結果を分析のために BigQuery にロードする前に、互いに素な 1 時間ごとの間隔でイベントを集計できる必要があります。大量のイベントでスケーリングできることを保証しながら、このデータを処理して BigQuery にロードするには、どのテクノロジーを使用する必要がありますか?

    Pub/Sub トピックから継続的に読み取り、タンブリングウィンドウを使用して必要な集計を実行するストリーミング Dataflow ジョブを作成します。

  • 24

    (Q#174) あなたは、Dialogflow を使用して会社のモバイルアプリのチャットボットを作成することを計画している大規模な金融機関で働いています。古いチャットログを確認し、カスタマーサービスに連絡する意図に基づいて各会話に意図のタグを付けました。顧客のリクエストの約 70% は、10 の意図内で解決される単純なリクエストです。残りの 30% の問い合わせには、はるかに長く、より複雑なリクエストが必要です。最初にどの意図を自動化する必要がありますか?

    ライブエージェントがより複雑なリクエストを処理できるように、リクエストの 70% をカバーする 10 の意図を自動化します。

  • 25

    (Q#175) あなたの会社は BigQuery を使用してデータウェアハウスを実装しており、あなたはデータモデルの設計を担当しています。スターデータスキーマを使用してオンプレミスの販売データウェアハウスを BigQuery に移動しますが、過去 30 日間のデータをクエリするときにパフォーマンスの問題が発生することに気付きました。Google の推奨プラクティスに基づいて、ストレージコストを増やすことなくクエリを高速化するにはどうすればよいですか?

    トランザクション日でデータをパーティション分割します。

  • 26

    (Q#176) 5 年分のログデータを Cloud Storage にアップロードしました。ユーザーから、ログデータの一部のデータポイントが予想される範囲外であることが報告されました。これはエラーを示しています。コンプライアンス上の理由から元のデータを保持しながら、この問題に対処し、将来このプロセスを再度実行できるようにする必要があります。あなたは何をすべきですか?

    Cloud Storage からデータを読み取り、予想される範囲外の値をチェックし、値を適切なデフォルトに設定し、更新されたレコードを Cloud Storage の新しいデータセットに書き込む Dataflow ワークフローを作成します。

  • 27

    (Q#177) 構造化データのバッチパイプラインを Google Cloud で再構築したいと考えています。PySpark を使用して大規模なデータ変換を行っていますが、パイプラインの実行に 12 時間以上かかっています。開発とパイプラインの実行時間を短縮するために、サーバーレスタイプのツールと SQL 構文を使用したいと考えています。raw データはすでに Cloud Storage に移動しています。速度と処理の要件を満たしながら、Google Cloud でパイプラインを構築するにはどうすればよいですか?

    Cloud Storage から BigQuery にデータを取り込み、PySpark コマンドを BigQuery SQL クエリに変換してデータを変換し、変換を新しいテーブルに書き込みます。

  • 28

    (Q#178) テキストファイルを取り込んで変換する Dataflow パイプラインをテストしています。ファイルは gzip で圧縮され、エラーは配信不能メッセージキューに書き込まれ、SideInputs を使用してデータを結合しています。パイプラインの完了に予想よりも時間がかかっていることに気付きました。Dataflow ジョブを迅速化するにはどうすればよいですか?

    SideInput の代わりに CoGroupByKey を使用します。

  • 29

    (Q#179) PII(個人識別情報)データを含む可能性のあるファイルを Cloud Storage に、最終的には BigQuery にストリーミングするリアルタイム予測エンジンを構築しています。名前とメールは結合キーとしてよく使用されるため、機密データがマスクされていると同時に参照整合性が維持されるようにする必要があります。 権限のない個人が PII データにアクセスできないようにするには、Cloud Data Loss Prevention API(DLP API)をどのように使用する必要がありますか?

    PII データを暗号化された形式保持トークンに置き換えて仮名を作成します。

  • 30

    (Q#180) 図書館の本と、著者や出版年などの各本の情報を追跡するアプリケーションを、オンプレミスのデータウェアハウスから BigQuery に移行しています。現在のリレーショナルデータベースでは、著者情報は別のテーブルに保持され、共通キーで書籍情報に結合されます。スキーマ設計に関する Google の推奨プラクティスに基づいて、借用された各書籍の著者に関するクエリの速度を最適化するには、データをどのように構造化する必要がありますか?

    書籍と著者に関する情報を含むテーブルを作成しますが、著者フィールドを著者列内にネストします。

  • 31

    (Q#181) データポイントを受け取り、GUID を返すサービスを使用して、新しい Web サイトユーザーにグローバル一意識別子(GUID)を付与する必要があります。このデータは、パイプライン内のマイクロサービスを介して行う HTTP 呼び出しを介して、内部システムと外部システムの両方から取得されます。毎秒何万ものメッセージがあり、マルチスレッド化できます。システムのバックプレッシャーが心配です。そのバックプレッシャーを最小限に抑えるには、パイプラインをどのように設計する必要がありますか?

    DoFn の startBundle メソッドで新しいオブジェクトを作成します。

  • 32

    (Q#182) データウェアハウスを Google Cloud に移行し、オンプレミスのデータセンターを廃止しています。これはあなたの会社にとって優先事項であるため、クラウドへの初期データロードに帯域幅が利用可能になることがわかっています。転送されるファイルの数は多くありませんが、各ファイルは 90 GB です。 さらに、トランザクションシステムが Google Cloud のウェアハウスをリアルタイムで継続的に更新するようにする必要があります。データを移行し、ウェアハウスへの書き込みを継続するには、どのツールを使用する必要がありますか?

    移行には gsutil。リアルタイム更新には Pub/Sub と Dataflow

  • 33

    (Q#183) Bigtable を使用して、主要なインデックスごとに株式市場データを永続化および提供しています。取引アプリケーションを提供するには、ストリーミングされている最新の株価にのみアクセスする必要があります。最も単純なクエリでデータにアクセスできるようにするには、行キーとテーブルをどのように設計する必要がありますか?

    すべてのインデックスに 1 つのユニークテーブルを作成し、逆タイムスタンプを行キーデザインとして使用します。

  • 34

    (Q#184) ストリーミング API を介して BigQuery にデータがストリーミングされる、レポート専用のデータウェアハウスを構築しています。Google のベストプラクティスに従って、データのステージングテーブルと本番テーブルの両方があります。取り込みまたはレポートのパフォーマンスに影響を与えることなく、1 つのマスターデータセットのみが存在することを保証するようにデータの読み込みを設計するにはどうすればよいですか?

    ステージングされたデータを本番テーブルに移動し、3 時間ごとにステージングテーブルの内容を削除するステージングテーブルを作成します。

  • 35

    (Q#185) Dataflow に新しいバッチジョブを発行します。ジョブは正常に開始され、いくつかの要素を処理してから、突然失敗してシャットダウンします。パイプライン内の特定の DoFn に関連するエラーが見つかった Dataflow モニタリングインターフェイスに移動します。エラーの最も可能性の高い原因は何ですか?

    ワーカーコードの例外

  • 36

    (Q#186) 新しい顧客から、Google Cloud コンピューティングリソースの正味消費量とリソースを使用したユーザーを示す日次レポートが要求されました。これらの日次レポートを迅速かつ効率的に生成する必要があります。あなたは何をすべきですか?

    Cloud Logging データを BigQuery に毎日エクスポートします。プロジェクト、ログタイプ、リソース、ユーザーでフィルタリングするビューを作成します。

  • 37

    (Q#187) 開発チームと外部チームには、Visualization という名前のフォルダにプロジェクト・ビューアーの Identity and Access Management(IAM)ロールがあります。開発チームは 開発チームはCloud StorageとBigQueryの両方からデータを読み取れるようにしたいが、外部チームはBigQueryからのみデータを読み取れるようにしたい。どうすればよいでしょうか?

    プロジェクトとクラウド ストレージの両方を制限付き API として含む VPC サービス コントロール境界を作成します。その境界のアクセスレベルに開発チームのユーザーを追加します。

  • 38

    (Q#188) あなたのスタートアップ企業は、現在アジアの単一リージョンで顧客にサービスを提供している Web アプリケーションを持っています。あなたは、スタートアップ企業が世界中の顧客にサービスを提供できるようにするための資金調達を目標としています。あなたの現在の目標はコストを最適化することであり、資金調達後の目標はグローバルプレゼンスとパフォーマンスを最適化することです。ネイティブ JDBC ドライバーを使用する必要があります。あなたは何をすべきですか?

    最初に Cloud Spanner を使用して単一リージョンインスタンスを構成し、資金を確保した後にマルチリージョン Cloud Spanner インスタンスを構成します。

  • 39

    (Q#189) オンプレミスのデータセンターから Google Cloud に 1 PB のデータを移行する必要があります。移行中のデータ転送時間は数時間しかかかりません。安全な接続を介した大規模なデータ転送を促進するために、Google の推奨プラクティスに従いたいと考えています。あなたは何をすべきですか?

    オンプレミスデータセンターと Google Cloud の間に Cloud Interconnect 接続を確立し、Storage Transfer Service を使用します。

  • 40

    (Q#190) Cloud Storage から BigQuery に CSV ファイルを読み込んでいます。ファイルには、同じ列に STRING と INT64 など、データ型が一致しない、電話番号や住所などの値の形式が inconsistent であるなど、既知のデータ品質の問題があります。データ品質を維持し、必要なクレンジングと変換を実行するためのデータパイプラインを作成する必要があります。あなたは何をすべきですか?

    Data Fusion を使用して、データを BigQuery にロードする前に変換します。

  • 41

    (Q#191) e コマースサイトで購入する可能性を予測する新しいディープラーニングモデルを開発しています。元のトレーニングデータと新しいテストデータの両方に対してモデルの評価を実行した後、モデルがデータに過剰適合していることがわかりました。新しいデータを予測するときのモデルの精度を向上させたいと考えています。あなたは何をすべきですか?

    トレーニングデータセットのサイズを増やし、入力特徴の数を減らします。

  • 42

    (Q#192) オンライン小売業者がカスタマーサービスを合理化できるようにチャットボットを実装しています。チャットボットは、テキストと音声の両方の問い合わせに対応できる必要があります。 ローコードまたはノーコードオプションを探しており、キーワードへの回答を提供するようにチャットボットを簡単にトレーニングできるようにしたいと考えています。あなたは何をすべきですか?

    Dialogflow を使用してチャットボットを実装し、収集された最も一般的なクエリに基づいて意図を定義します。

  • 43

    (Q#193) 航空宇宙会社は、独自のデータ形式を使用して飛行データを保存します。この新しいデータソースを BigQuery に接続し、データを BigQuery にストリーミングする必要があります。できるだけ少ないリソースを消費しながら、データを BigQuery に効率的にインポートする必要があります。あなたは何をすべきですか?

    Apache Beam カスタムコネクタを使用して、データを Avro 形式で BigQuery にストリーミングする Dataflow パイプラインを作成します。

  • 44

    (Q#194) オンライン証券会社には、大量の取引処理アーキテクチャが必要です。ジョブをトリガーする安全なキューイングシステムを作成する必要があります。ジョブは Google Cloud で実行され、会社の Python API を呼び出して取引を実行します。ソリューションを効率的に実装する必要があります。あなたは何をすべきですか?

    Pub/Sub プッシュサブスクリプションを使用して、Python API にデータを渡す Cloud Function をトリガーします。

  • 45

    (Q#195) あなたの会社は、データベースに 10 TB 以上のデータがある現在のシステムから大量の医療情報を取得し、そのデータを新しいテーブルに保存してさらにクエリできるようにしたいと考えています。データベースは、メンテナンスの少ないアーキテクチャであり、SQL を介してアクセスできる必要があります。大量の結果セットのデータ分析をサポートできる費用対効果の高いソリューションを実装する必要があります。あなたは何をすべきですか?

    BigQuery をデータウェアハウスとして使用します。大規模なクエリをキャッシュするための出力先を設定します。

  • 46

    (Q#196) オンプレミスデータセンターに 15 TB のデータがあり、それを Google Cloud に転送したいと考えています。データは毎週変更され、POSIX 準拠のソースに保存されます。ネットワーク運用チームから、パブリックインターネットへの 500 Mbps の帯域幅が付与されています。Google の推奨プラクティスに従って、データを毎週確実に Google Cloud に転送する必要があります。あなたは何をすべきですか?

    データセンターにオンプレミスデータ用の Storage Transfer Service をインストールし、毎週の転送ジョブを構成します。

  • 47

    (Q#197) ACID 準拠のデータベースを必要とするシステムを設計しています。障害発生時に人手を最小限に抑える必要があります。 あなたは何をすべきですか?

    高可用性が有効になっている Cloud SQL for PostgreSQL インスタンスを構成します。

  • 48

    (Q#198) オープンソースベースのツールと Google Kubernetes Engine(GKE)を使用してワークフローパイプラインのスケジューリングを実装しています。Google マネージドサービスを使用してタスクを簡素化および自動化する必要があります。また、共有 VPC ネットワーキングの考慮事項に対応する必要もあります。あなたは何をすべきですか?

    共有 VPC 構成で Cloud Composer を使用します。Cloud Composer リソースをサービスプロジェクトに配置します。

  • 49

    (Q#199) BigQuery と Data Studio を使用して、大量の集計データを表示する顧客向けのダッシュボードを設計しています。大量の同時ユーザーが予想されます。レイテンシを最小限に抑えて迅速な視覚化を提供するようにダッシュボードを最適化する必要があります。あなたは何をすべきですか?

    マテリアライズドビューで BigQuery BI Engine を使用します。

  • 50

    (Q#200) 銀行業界の政府規制では、クライアントの個人識別情報(PII)の保護が義務付けられています。あなたの会社では、PII をアクセス制御、暗号化し、主要なデータ保護基準に準拠させる必要があります。Cloud Data Loss Prevention(Cloud DLP)を使用することに加えて、Google の推奨プラクティスに従い、サービスアカウントを使用して PII へのアクセスを制御する必要があります。あなたは何をすべきですか?

    Cloud Storage を使用して、主要なデータ保護基準に準拠します。IAM グループに接続された複数のサービスアカウントを使用して、各グループに適切なアクセス権を付与します。