ログイン

PMLE05

PMLE05
50問 • 8ヶ月前
  • ユーザ名非公開
  • 通報

    問題一覧

  • 1

    (Q#201) あなたは、大規模なBigQueryテーブルに格納されたデータで分類モデルを学習するVertex AIパイプラインを開発しました。パイプラインには4つのステップがあり、各ステップはKubeFlow v2 APIを使用するPython関数によって作成されます。コンポーネントの名前は次のとおりです: You developed a Vertex AI pipeline that trains a classification model on data stored in a large BigQuery table. The pipeline has four steps, where each step is created by a Python function that uses the KubeFlow v2 API. The components have the following names: dt = datetime.now().strftime(%Y%m%d%H%M%S) f"export-{dt}.yaml", f"preprocess-{dt}.yaml", f"train-{dt}.yaml, fcalibrate-{dt}.yaml" Vertex AIパイプラインを次のように起動する: You launch your Vertex AI pipeline as the following: job = aip.PipelineJob{ display_name=my-awesome-pipeline, template_path=pipeline.json, job_id=fmy-awesome-pipeline-{dt} parameter_values=params, enable_caching=True, location=europe-west1 } 学習ステップのコードとパラメータを調整することで、モデルを何度も繰り返している。開発、特にデータエクスポートと前処理ステップに高いコストがかかっている。モデル開発コストを削減する必要があります。どうすればよいでしょうか? You perform many model iterations by adjusting the code and parameters of the training step. You observe high costs associated with the development, particularly the data export and preprocessing steps. You need to reduce model development costs. What should you do?

    Change the components’ YAML filenames to export.yaml, preprocess,yaml, f train- {dt}.yaml, fcalibrate-{dt).vaml.

  • 2

    (Q#202) あなたは複数のデータサイエンスワークロードを持つ新興企業に勤めています。コンピュートインフラストラクチャは現在オンプレミスで、データサイエンスワークロードはPySparkネイティブです。あなたのチームは、データサイエンスのワークロードをGoogle Cloudに移行することを計画しています。1つのデータサイエンスジョブをGoogle Cloudに移行する概念実証を構築する必要があります。最小限のコストと労力で済む移行プロセスを提案したい。まず何をすべきでしょうか? You work for a startup that has multiple data science workloads. Your compute infrastructure is currently on-premises, and the data science workloads are native to PySpark. Your team plans to migrate their data science workloads to Google Cloud. You need to build a proof of concept to migrate one data science job to Google Cloud. You want to propose a migration process that requires minimal cost and effort. What should you do first?

    Create a Vertex AI Workbench notebook with instance type n2-standard-4.

  • 3

    (Q#203) あなたは銀行に勤めている。ローン申請の決定をサポートする ML モデルの開発を依頼されています。ワークフローにどの Vertex AI サービスを含めるかを決定する必要があります。モデルのトレーニングパラメータとトレーニングエポックごとのメトリクスを追跡する必要があります。モデルの各バージョンのパフォーマンスを比較し、選択したメトリクスに基づいて最適なモデルを決定する予定です。どの Vertex AI サービスを使用する必要がありますか? You work for a bank. You have been asked to develop an ML model that will support loan application decisions. You need to determine which Vertex AI services to include in the workflow. You want to track the model’s training parameters and the metrics per training epoch. You plan to compare the performance of each version of the model to determine the best model based on your chosen metrics. Which Vertex AI services should you use?

    Vertex ML Metadata, Vertex AI Experiments, and Vertex AI TensorBoard

  • 4

    (Q#204) あなたは自動車保険会社に勤めている。あなたは、損傷した車の画像を使って損傷箇所を推測する概念実証のMLアプリケーションを準備しています。あなたのチームは、会社のデータベースにある損害賠償請求文書から、注釈付き画像のセットを集めました。各画像に関連付けられた注釈は、識別された損傷部品のバウンディングボックスと部品名で構成されています。Google Cloud でモデルを学習するための十分な予算が与えられています。初期モデルを迅速に作成する必要があります。何をすべきでしょうか? You work for an auto insurance company. You are preparing a proof-of-concept ML application that uses images of damaged vehicles to infer damaged parts. Your team has assembled a set of annotated images from damage claim documents in the company’s database. The annotations associated with each image consist of a bounding box for each identified damaged part and the part name. You have been given a sufficient budget to train models on Google Cloud. You need to quickly create an initial model. What should you do?

    Train an object detection model in AutoML by using the annotated image data.

  • 5

    (Q#205) あなたは、クラウド・ストレージに保存されている医療機関の顧客データを分析しています。データには個人を特定できる情報(PII)が含まれています。あなたは、機密フィールドのセキュリティとプライバシーを確保しながら、データ探索と前処理を実行する必要があります。あなたは何をすべきでしょうか? You are analyzing customer data for a healthcare organization that is stored in Cloud Storage. The data contains personally identifiable information (PII). You need to perform data exploration and preprocessing while ensuring the security and privacy of sensitive fields. What should you do?

    Use the Cloud Data Loss Prevention (DLP) API to de-identify the PII before performing data exploration and preprocessing.

  • 6

    (Q#206) あなたは、橋の部品の欠陥を事前に検出するための予知保全モデルを構築しています。橋梁の高精細画像をモデル入力として使用する予定です。関連する利害関係者が適切な行動を取れるように、モデルの出力を説明する必要があります。どのようにモデルを構築すべきでしょうか? You are building a predictive maintenance model to preemptively detect part defects in bridges. You plan to use high definition images of the bridges as model inputs. You need to explain the output of the model to the relevant stakeholders so they can take appropriate action. How should you build the model?

    Use TensorFlow to create a deep learning-based model, and use Integrated Gradients to explain the model output.

  • 7

    (Q#207) あなたは、手術スケジュールの最適化を望む病院に勤務しています。あなたは、予定されている手術の数と使用されている病床の間の関係を使用するモデルを作成する必要があります。あなたは、予定された手術に基づいて、毎日患者のために必要なベッド数を事前に予測したい。365行で編成された病院の1年間のデータがあります。 データには、各日の以下の変数が含まれます: 予定されている手術の数 ・占有されているベッドの数 ・日付 あなたはモデルの開発とテストのスピードを最大化したい。何をすべきでしょうか? You work for a hospital that wants to optimize how it schedules operations. You need to create a model that uses the relationship between the number of surgeries scheduled and beds used. You want to predict how many beds will be needed for patients each day in advance based on the scheduled surgeries. You have one year of data for the hospital organized in 365 rows. The data includes the following variables for each day: ・Number of scheduled surgeries ・Number of beds occupied ・Date You want to maximize the speed of model development and testing. What should you do?

    Create a Vertex AI tabular dataset. Train a Vertex AI AutoML Forecasting model, with number of beds as the target variable, number of scheduled surgeries as a covariate and date as the time variable.

  • 8

    (Q#208) あなたは最近、TensorFlowで幅広く深いモデルを開発しました。SQLスクリプトを使用してトレーニングデータセットを生成し、データのインスタンスレベルの変換を実行することで、BigQueryの生データを前処理しました。モデルを週単位で再トレーニングするためのトレーニングパイプラインを作成する必要があります。トレーニングされたモデルは、毎日のレコメンデーションの生成に使用されます。モデルの開発とトレーニングにかかる時間を最小限に抑えたい。トレーニングパイプラインはどのように開発すべきでしょうか? You recently developed a wide and deep model in TensorFlow. You generated training datasets using a SQL script that preprocessed raw data in BigQuery by performing instance-level transformations of the data. You need to create a training pipeline to retrain the model on a weekly basis. The trained model will be used to generate daily recommendations. You want to minimize model development and training time. How should you develop the training pipeline?

    Use the Kubeflow Pipelines SDK to implement the pipeline. Use the BigQueryJobOp component to run the preprocessing script and the CustomTrainingJobOp component to launch a Vertex AI training job.

  • 9

    (Q#209) あなたは、大規模なデータセットを使用して、自社のカスタム言語モデルをトレーニングしています。Vertex AI の Reduction Server ストラテジーを使用する予定です。分散トレーニングジョブのワーカープールを構成する必要があります。何をすべきでしょうか? You are training a custom language model for your company using a large dataset. You plan to use the Reduction Server strategy on Vertex AI. You need to configure the worker pools of the distributed training job. What should you do?

    Configure the machines of the first two worker pools to have GPUs and to use a container image where your training code runs. Configure the third worker pool to use the reductionserver container image without accelerators, and choose a machine type that prioritizes bandwidth.

  • 10

    (Q#210) バッチDataflowパイプラインで前処理されたデータを使用してモデルをトレーニングした。ユースケースにはリアルタイムの推論が必要です。データの前処理ロジックが、トレーニング時とサービング時で一貫して適用されるようにしたい。どうすればよいでしょうか? You have trained a model by using data that was preprocessed in a batch Dataflow pipeline. Your use case requires real-time inference. You want to ensure that the data preprocessing logic is applied consistently between training and serving. What should you do?

    Refactor the transformation code in the batch data pipeline so that it can be used outside of the pipeline. Use the same code in the endpoint.

  • 11

    (Q#211) オンライン予測に使用するカスタムTensorFlowモデルを開発する必要があります。トレーニングデータはBigQueryに格納されています。モデルの学習と配信のために、データにインスタンスレベルのデータ変換を適用する必要があります。モデルのトレーニングと配信で同じ前処理ルーチンを使用したい。前処理ルーチンはどのように構成する必要がありますか? You need to develop a custom TensorFlow model that will be used for online predictions. The training data is stored in BigQuery. You need to apply instance-level data transformations to the data for model training and serving. You want to use the same preprocessing routine during model training and serving. How should you configure the preprocessing routine?

    Create an Apache Beam pipeline to read the data from BigQuery and preprocess it by using TensorFlow Transform and Dataflow.

  • 12

    (Q#212) Google Cloud上で大規模な言語モデルを事前トレーニングしています。このモデルには、カスタムTensorFlow操作がトレーニングループに含まれています。モデルのトレーニングには大きなバッチサイズが使用され、トレーニングには数週間かかると予想されます。トレーニング時間と計算コストの両方を最小化するトレーニング・アーキテクチャを構成する必要があります。どうすればよいでしょうか? You are pre-training a large language model on Google Cloud. This model includes custom TensorFlow operations in the training loop. Model training will use a large batch size, and you expect training to take several weeks. You need to configure a training architecture that minimizes both training time and compute costs. What should you do?

    Implement a TPU Pod slice with -accelerator-type=v4-l28 by using tf.distribute.TPUStrategy.

  • 13

    (Q#213) あなたは、数十億の画像とそれぞれのキャプションを含むデータセットを使用して、TensorFlowのテキストから画像への生成モデルを構築しています。クラウドストレージのバケットからデータを読み込んで統計情報を収集し、データセットをトレーニング/検証/テストデータセットに分割してデータ変換を実行し、トレーニング/検証データセットを使用してモデルをトレーニングし、テストデータセットを使用してモデルを検証する、メンテナンスの少ない自動化されたワークフローを作成したいと考えています。あなたは何をすべきでしょうか? You are building a TensorFlow text-to-image generative model by using a dataset that contains billions of images with their respective captions. You want to create a low maintenance, automated workflow that reads the data from a Cloud Storage bucket collects statistics, splits the dataset into training/validation/test datasets performs data transformations trains the model using the training/validation datasets, and validates the model by using the test dataset. What should you do?

    Use the TensorFlow Extended (TFX) SDK to create multiple components that use Dataflow and Vertex AI services. Deploy the workflow on Vertex AI Pipelines.

  • 14

    (Q#214) Vertex AI Pipelines を使用して ML パイプラインを開発しています。パイプラインは、XGBoost モデルの新しいバージョンを Vertex AI Model Registry にアップロードし、オンライン推論のために Vertex AI Endpoints にデプロイします。最も単純なアプローチを使用したい。どうすればよいでしょうか? You are developing an ML pipeline using Vertex AI Pipelines. You want your pipeline to upload a new version of the XGBoost model to Vertex AI Model Registry and deploy it to Vertex AI Endpoints for online inference. You want to use the simplest approach. What should you do?

    Chain the Vertex AI ModelUploadOp and ModelDeployOp components together

  • 15

    (Q#215) あなたはオンライン小売業者に勤めている。ライフサイクルの短い商品を数千点扱っている。5年分の販売データがBigQueryに保存されています。あなたは、各商品の毎月の売上予測を行うモデルの構築を依頼されました。最小限の労力で迅速に実装できるソリューションを使用したい。どうすればよいでしょうか? You work for an online retailer. Your company has a few thousand short lifecycle products. Your company has five years of sales data stored in BigQuery. You have been asked to build a model that will make monthly sales predictions for each product. You want to use a solution that can be implemented quickly with minimal effort. What should you do?

    Use BigQuery ML to build a statistical ARIMA_PLUS model.

  • 16

    (Q#216) テキストベースの製品レビューからセンチメントスコアを予測するモデルトレーニングパイプラインを作成しています。モデルのパラメータを調整する方法を制御できるようにし、モデルをトレーニングした後にエンドポイントにデプロイします。パイプラインの実行には Vertex AI Pipelines を使用します。どのGoogle Cloudパイプラインコンポーネントを使用するかを決定する必要があります。どのコンポーネントを選ぶべきか? You are creating a model training pipeline to predict sentiment scores from text-based product reviews. You want to have control over how the model parameters are tuned, and you will deploy the model to an endpoint after it has been trained. You will use Vertex AI Pipelines to run the pipeline. You need to decide which Google Cloud pipeline components to use. What components should you choose?

    TextDatasetCreateOp, CustomTrainingJobOp, and ModelDeployOp

  • 17

    (Q#217) あなたのチームは頻繁に新しいMLモデルを作成し、実験を実行します。チームはクラウド・ソース・リポジトリーにホストされた単一のリポジトリにコードをプッシュします。継続的インテグレーションパイプラインを作成し、コードが変更されるたびにモデルを自動的に再トレーニングしたい。CIパイプラインをセットアップするための最初のステップは何でしょうか? Your team frequently creates new ML models and runs experiments. Your team pushes code to a single repository hosted on Cloud Source Repositories. You want to create a continuous integration pipeline that automatically retrains the models whenever there is any modification of the code. What should be your first step to set up the CI pipeline?

    Configure a Cloud Build trigger with the event set as Push to a branch

  • 18

    (Q#218) あなたは、予測を行う前にいくつかのメモリ集約的な前処理タスクを実行するカスタムモデルを構築しました。このモデルを Vertex AI エンドポイントにデプロイし、結果が妥当な時間で受信されることを検証しました。エンドポイントにユーザートラフィックをルーティングした後、複数のリクエストを受信したときにエンドポイントが期待どおりにオートスケールしないことを発見しました。どうすればよいでしょうか? You have built a custom model that performs several memory-intensive preprocessing tasks before it makes a prediction. You deployed the model to a Vertex AI endpoint, and validated that results were received in a reasonable amount of time. After routing user traffic to the endpoint, you discover that the endpoint does not autoscale as expected when receiving multiple requests. What should you do?

    Decrease the CPU utilization target in the autoscaling configurations

  • 19

    (Q#219) あなたの会社はeコマースサイトを運営しています。あなたは、ユーザーのカートに現在入っている商品に基づいて、ほぼリアルタイムでユーザーに追加商品を推奨するMLモデルを開発しました。ワークフローは以下のプロセスを含みます: 1. ウェブサイトは関連データをPub/Subメッセージで送信し、Pub/Subから予測をメッセージで受信する。 2. 予測はBigQueryに保存される。 3. モデルはクラウドストレージのバケットに保存され、頻繁に更新される。 予測のレイテンシーとモデルの更新に必要な労力を最小限にしたい。どのようにアーキテクチャを構成し直すべきか? Your company manages an ecommerce website. You developed an ML model that recommends additional products to users in near real time based on items currently in the user’s cart. The workflow will include the following processes: 1. The website will send a Pub/Sub message with the relevant data and then receive a message with the prediction from Pub/Sub 2. Predictions will be stored in BigQuery 3. The model will be stored in a Cloud Storage bucket and will be updated frequently You want to minimize prediction latency and the effort required to update the model. How should you reconfigure the architecture?

    Use the RunInference API with WatchFilePattern in a Dataflow job that wraps around the model and serves predictions.

  • 20

    (Q#220) あなたはチームと共同でモデルのプロトタイプを作成しています。チームメンバー用にVertex AI Workbench環境を作成し、プロジェクト内の他の従業員へのアクセスも制限する必要があります。どうすればよいでしょうか? You are collaborating on a model prototype with your team. You need to create a Vertex AI Workbench environment for the members of your team and also limit access to other employees in your project. What should you do?

    1. Create a new service account and grant it the Notebook Viewer role 2. Grant the Service Account User role to each team member on the service account 3. Grant the Vertex AI User role to each team member 4. Provision a Vertex AI Workbench user-managed notebook instance that uses the new service account

  • 21

    (Q#221) あなたは大手ヘルスケア企業で、様々なユースケースに対応する最先端のアルゴリズムを開発しています。あなたはカスタムラベルを持つ非構造化テキストデータを持っています。このラベルを使って様々な医療フレーズを抽出し、分類する必要があります。どうすればいいでしょうか? You work at a leading healthcare firm developing state-of-the-art algorithms for various use cases. You have unstructured textual data with custom labels. You need to extract and classify various medical phrases with these labels. What should you do?

    Use AutoML Entity Extraction to train a medical entity extraction model

  • 22

    (Q#222) アプリケーションのユーザー解約率を予測するために、Vertex AI を使用してカスタムモデルを開発しました。スキュー検出のためにVertex AI Model Monitoringを使用しています。BigQueryに保存されたトレーニングデータには、人口統計と行動の2つの特徴セットが含まれています。後に、それぞれのセットでトレーニングされた2つの別々のモデルが、元のモデルよりも優れたパフォーマンスを示すことがわかりました。2つのモデル間でトラフィックを分割する新しいモデルモニタリングパイプラインを構成する必要があります。各モデルに同じ予測サンプリング・レートと監視頻度を使用したい。また、管理工数を最小限に抑えたい。どうすればよいでしょうか? You developed a custom model by using Vertex AI to predict your application's user churn rate. You are using Vertex AI Model Monitoring for skew detection. The training data stored in BigQuery contains two sets of features - demographic and behavioral. You later discover that two separate models trained on each set perform better than the original model. You need to configure a new model monitoring pipeline that splits traffic among the two models. You want to use the same prediction-sampling-rate and monitoring-frequency for each model. You also want to minimize management effort. What should you do?

    Keep the training dataset as is. Deploy both models to the same endpoint and submit a Vertex AI Model Monitoring job with a monitoring-config-from-file parameter that accounts for the model IDs and feature selections.

  • 23

    (Q#223) あなたはカナダに本社を置く製薬会社に勤務しています。あなたのチームは、カナダにおける翌月のインフルエンザ感染数を予測するBigQuery MLモデルを開発しました。気象データは毎週公開され、インフルエンザの感染統計は毎月公開されます。あなたは、コストを最小化するモデルの再トレーニングポリシーを構成する必要があります。何をすべきでしょうか? You work for a pharmaceutical company based in Canada. Your team developed a BigQuery ML model to predict the number of flu infections for the next month in Canada. Weather data is published weekly, and flu infection statistics are published monthly. You need to configure a model retraining policy that minimizes cost. What should you do?

    Download the weather data each week, and download the flu data each month. Deploy the model to a Vertex AI endpoint with feature drift monitoring, and retrain the model if a monitoring alert is detected.

  • 24

    (Q#224) あなたはML実験とモデルの再トレーニングを自動化するMLOpsプラットフォームを構築しています。何十ものパイプラインの成果物を整理する必要があります。パイプラインの成果物はどのように保管すべきでしょうか? You are building a MLOps platform to automate your company’s ML experiments and model retraining. You need to organize the artifacts for dozens of pipelines. How should you store the pipelines’ artifacts?

    Store parameters in Vertex ML Metadata, store the models’ source code in GitHub, and store the models’ binaries in Cloud Storage.

  • 25

    (Q#225) あなたは電気通信会社に勤めている。あなたは、次の電話料金の支払いが滞る可能性のある顧客を予測するモデルを構築しています。このモデルの目的は、サービスの割引や請求期限の延長など、リスクのある顧客に積極的な支援を提供することです。データはBigQueryに保存され、モデルトレーニングに利用可能な予測機能には以下が含まれます: - 顧客ID - 年齢 - 給与(現地通貨) - 性別 - 平均請求額(現地通貨) - 直近1ヶ月の通話回数(整数) - 平均通話時間(分単位) モデルの精度を保ちつつ、不利な立場にあるグループに対する潜在的な偏りを調査し、緩和する必要があります。 何をすべきでしょうか? You work for a telecommunications company. You’re building a model to predict which customers may fail to pay their next phone bill. The purpose of this model is to proactively offer at-risk customers assistance such as service discounts and bill deadline extensions. The data is stored in BigQuery and the predictive features that are available for model training include: - Customer_id - Age - Salary (measured in local currency) - Sex - Average bill value (measured in local currency) - Number of phone calls in the last month (integer) - Average duration of phone calls (measured in minutes) You need to investigate and mitigate potential bias against disadvantaged groups, while preserving model accuracy. What should you do?

    Define a fairness metric that is represented by accuracy across the sensitive features. Train a BigQuery ML boosted trees classification model with all features. Use the trained model to make predictions on a test set. Join the data back with the sensitive features, and calculate a fairness metric to investigate whether it meets your requirements.

  • 26

    (Q#226) あなたは最近XGBoostモデルを学習し、オンライン推論のために実運用にデプロイする予定です。モデルのバイナリに予測要求を送信する前に、簡単なデータ前処理ステップを実行する必要があります。このステップは、内部の VPC Service Controls でリクエストを受け付け、予測を返す REST API を公開します。コストと労力を最小限に抑えながら、この前処理ステップを構成したいとします。どうすればよいでしょうか。 You recently trained a XGBoost model that you plan to deploy to production for online inference. Before sending a predict request to your model’s binary, you need to perform a simple data preprocessing step. This step exposes a REST API that accepts requests in your internal VPC Service Controls and returns predictions. You want to configure this preprocessing step while minimizing cost and effort. What should you do?

    Build a custom predictor class based on XGBoost Predictor from the Vertex AI SDK, and package the handler in a custom container image based on a Vertex built-in container image. Store a pickled model in Cloud Storage, and deploy the model to Vertex AI Endpoints.

  • 27

    (Q#227) あなたは銀行に勤めています。あなたは、融資申請の決定をサポートする信用リスクモデルを開発する必要があります。あなたは、TensorFlowのニューラルネットワークを使用してモデルを実装することに決めました。規制上の要件により、モデルの特徴に基づいてモデルの予測を説明できるようにする必要があります。また、モデルの導入時には、モデルのパフォーマンスを長期にわたって監視する必要があります。モデルの開発と展開の両方にVertex AIを使用することにしました。何をすべきでしょうか? You work at a bank. You need to develop a credit risk model to support loan application decisions. You decide to implement the model by using a neural network in TensorFlow. Due to regulatory requirements, you need to be able to explain the model’s predictions based on its features. When the model is deployed, you also want to monitor the model’s performance over time. You decided to use Vertex AI for both model development and deployment. What should you do?

    Use Vertex Explainable AI with the sampled Shapley method, and enable Vertex AI Model Monitoring to check for feature distribution drift.

  • 28

    (Q#228) あるモデルで誤分類エラーが発生したため、その根本原因を調査しています。Vertex AI Pipelinesを使用してモデルをトレーニングし、デプロイしました。パイプラインはBigQueryからデータを読み込み、クラウドストレージにTFRecord形式でデータのコピーを作成し、そのコピーに対してVertex AI Trainingでモデルをトレーニングし、モデルをVertex AIエンドポイントにデプロイします。誤分類したモデルの特定のバージョンを特定したので、このモデルがトレーニングされたデータを回復する必要があります。そのデータのコピーはどのように見つけるべきでしょうか? You are investigating the root cause of a misclassification error made by one of your models. You used Vertex AI Pipelines to train and deploy the model. The pipeline reads data from BigQuery. creates a copy of the data in Cloud Storage in TFRecord format, trains the model in Vertex AI Training on that copy, and deploys the model to a Vertex AI endpoint. You have identified the specific version of that model that misclassified, and you need to recover the data this model was trained on. How should you find that copy of the data?

    Use the lineage feature of Vertex AI Metadata to find the model artifact. Determine the version of the model and identify the step that creates the data copy and search in the metadata for its location.

  • 29

    (Q#229) あなたは製造会社に勤めています。組立ラインの最後にある製品の欠陥を検出するために、カスタム画像分類モデルをトレーニングする必要があります。モデルの性能は良好ですが、ホールドアウト集合の一部の画像は常に高い信頼性で誤ラベル付けされています。Vertex AI を使用して、モデルの結果を理解したいとします。どうすればよいでしょうか? You work for a manufacturing company. You need to train a custom image classification model to detect product defects at the end of an assembly line. Although your model is performing well, some images in your holdout set are consistently mislabeled with high confidence. You want to use Vertex AI to understand your model’s results. What should you do?

    Configure example-based explanations. Specify the embedding output layer to be used for the latent space representation.

  • 30

    (Q#230) 複数の Google Cloud プロジェクトにまたがるデータを使用して、Vertex AI でモデルをトレーニングしています。異なるバージョンのモデルのパフォーマンスを見つけ、追跡し、比較する必要があります。どの Google Cloud サービスを ML ワークフローに含めるべきでしょうか? You are training models in Vertex AI by using data that spans across multiple Google Cloud projects. You need to find, track, and compare the performance of the different versions of your models. Which Google Cloud services should you include in your ML workflow?

    Vertex AI Pipelines, Vertex AI Experiments, and Vertex AI Metadata

  • 31

    (Q#231) あなたはKerasとTensorFlowを使って不正検出モデルを開発しています。顧客取引のレコードは、BigQueryの大きなテーブルに保存されています。これらのレコードをモデルの学習に使用する前に、費用対効果が高く効率的な方法で前処理する必要があります。学習されたモデルは、BigQueryでバッチ推論を実行するために使用されます。前処理ワークフローはどのように実装すべきでしょうか? You are using Keras and TensorFlow to develop a fraud detection model. Records of customer transactions are stored in a large table in BigQuery. You need to preprocess these records in a cost-effective and efficient way before you use them to train the model. The trained model will be used to perform batch inference in BigQuery. How should you implement the preprocessing workflow?

    Perform preprocessing in BigQuery by using SQL. Use the BigQueryClient in TensorFlow to read the data directly from BigQuery.

  • 32

    (Q#232) TensorFlowを使って画像分類モデルを学習する必要がある。データセットはクラウドストレージディレクトリにあり、数百万のラベル付き画像が含まれています。モデルをトレーニングする前に、データを準備する必要があります。データの前処理とモデルのトレーニングのワークフローは、できるだけ効率的で、スケーラブルで、メンテナンスが少なくて済むようにしたいものです。何をすべきでしょうか? You need to use TensorFlow to train an image classification model. Your dataset is located in a Cloud Storage directory and contains millions of labeled images. Before training the model, you need to prepare the data. You want the data preprocessing and model training workflow to be as efficient, scalable, and low maintenance as possible. What should you do?

    1. Create a Dataflow job that creates sharded TFRecord files in a Cloud Storage directory. 2. Reference tf.data.TFRecordDataset in the training script. 3. Train the model by using Vertex AI Training with a V100 GPU.

  • 33

    (Q#233) あなたはカスタム画像分類モデルを構築しており、Vertex AI Pipelinesを使用してエンドツーエンドのトレーニングを実施する予定です。データセットは、モデルの学習に使用する前に前処理が必要な画像で構成されています。前処理のステップには、画像のサイズ変更、グレースケールへの変換、特徴の抽出が含まれます。あなたはすでに前処理タスクのためにいくつかのPython関数を実装しています。パイプラインでどのコンポーネントを使うべきでしょうか? You are building a custom image classification model and plan to use Vertex AI Pipelines to implement the end-to-end training. Your dataset consists of images that need to be preprocessed before they can be used to train the model. The preprocessing steps include resizing the images, converting them to grayscale, and extracting features. You have already implemented some Python functions for the preprocessing tasks. Which components should you use in your pipeline?

    dsl.ParallelFor, dsl.component, and CustomTrainingJobOp

  • 34

    (Q#234) あなたは、BigQuery MLで構築した回帰モデルを使用して商品の売上を予測している小売企業に勤務しています。このモデルはオンライン予測に使用されています。最近、あなたは異なるアーキテクチャ(カスタムモデル)を使用するモデルの新バージョンを開発しました。初期分析の結果、どちらのモデルも期待通りのパフォーマンスであることがわかりました。あなたは、新バージョンのモデルを本番稼動に導入し、今後 2 か月にわたってパフォーマンスを監視したいと考えています。既存および将来のモデル・ユーザーへの影響を最小限に抑える必要があります。どのようにモデルを展開すべきでしょうか? You work for a retail company that is using a regression model built with BigQuery ML to predict product sales. This model is being used to serve online predictions. Recently you developed a new version of the model that uses a different architecture (custom model). Initial analysis revealed that both models are performing as expected. You want to deploy the new version of the model to production and monitor the performance over the next two months. You need to minimize the impact to the existing and future model users. How should you deploy the model?

    Import the new model to the same Vertex AI Model Registry as a different version of the existing model. Deploy the new model to the same Vertex AI endpoint as the existing model, and use traffic splitting to route 95% of production traffic to the BigQuery ML model and 5% of production traffic to the new model.

  • 35

    (Q#235) Vertex AIとTensorFlowを使用して、カスタム画像分類モデルを開発しています。モデルの決定とその根拠を、貴社の利害関係者が理解できるようにする必要があります。また、結果を調査して、問題や潜在的なバイアスを特定したいと考えています。どうすればよいでしょうか? You are using Vertex AI and TensorFlow to develop a custom image classification model. You need the model’s decisions and the rationale to be understandable to your company’s stakeholders. You also want to explore the results to identify any issues or potential biases. What should you do?

    1. Use Vertex Explainable AI to generate feature attributions. Aggregate feature attributions over the entire dataset. 2. Analyze the aggregation result together with the standard model evaluation metrics.

  • 36

    (Q#236) あなたは大手小売企業に勤めており、顧客離れを予測するモデルを構築する必要があります。この会社には、顧客の人口統計、購買履歴、Webサイトのアクティビティなど、過去の顧客データのデータセットがあります。あなたはBigQuery MLでモデルを作成し、そのパフォーマンスを徹底的に評価する必要があります。何をすべきでしょうか? You work for a large retailer, and you need to build a model to predict customer churn. The company has a dataset of historical customer data, including customer demographics purchase history, and website activity. You need to create the model in BigQuery ML and thoroughly evaluate its performance. What should you do?

    Create a logistic regression model in BigQuery ML and register the model in Vertex AI Model Registry. Evaluate the model performance in Vertex AI .

  • 37

    (Q#237) あなたは、自動車のダッシュボードから撮影した動画から抽出した画像中の交通標識を識別するモデルを開発している。あなたは、10種類の交通標識のうちの1つが表示されるようにトリミングされた100,000枚の画像のデータセットを持っています。画像はモデル学習用にラベル付けされ、クラウドストレージのバケットに保存されています。各トレーニング実行中にモデルをチューニングできるようにする必要があります。どのようにモデルをトレーニングすればよいのでしょうか? You are developing a model to identify traffic signs in images extracted from videos taken from the dashboard of a vehicle. You have a dataset of 100,000 images that were cropped to show one out of ten different traffic signs. The images have been labeled accordingly for model training, and are stored in a Cloud Storage bucket. You need to be able to tune the model during each training run. How should you train the model?

    Develop the model training code for image classification, and train a model by using Vertex AI custom training.

  • 38

    (Q#238) カスタムモデルサーバを使用して、Vertex AIエンドポイントにscikit-teamモデルをデプロイしました。自動スケーリングを有効にしましたが、デプロイされたモデルは 1 つのレプリカを超えるスケーリングに失敗し、リクエストのドロップにつながりました。高負荷時でもCPU使用率が低いままであることに気づきました。どうすればよいでしょうか。 You have deployed a scikit-team model to a Vertex AI endpoint using a custom model server. You enabled autoscaling: however, the deployed model fails to scale beyond one replica, which led to dropped requests. You notice that CPU utilization remains low even during periods of high load. What should you do?

    Increase the number of workers in your model server

  • 39

    (Q#239) あなたは、オンラインフォーラムを管理するペットフード会社に勤めています。顧客は自分のペットの写真をフォーラムにアップロードし、他の人と共有します。毎日約20枚の写真がアップロードされます。あなたは、アップロードされた写真に動物が写っているかどうかをほぼリアルタイムで自動的に検出したいと考えています。アプリケーションの開発と展開にかかる時間を優先し、コストを最小限に抑えたい。どうすればいいでしょうか? You work for a pet food company that manages an online forum. Customers upload photos of their pets on the forum to share with others. About 20 photos are uploaded daily. You want to automatically and in near real time detect whether each uploaded photo has an animal. You want to prioritize time and minimize cost of your application development and deployment. What should you do?

    Send user-submitted images to the Cloud Vision API. Use object localization to identify all objects in the image and compare the results against a list of animals.

  • 40

    (Q#240) あなたは、オンラインマルチプレイヤーゲームを開発するモバイルゲームの新興企業に勤めています。最近、ゲームで不正行為を行うプレイヤーが増加し、収益の損失とユーザーエクスペリエンスの低下につながりました。このモデルは、テスト中に良好なパフォーマンスを示したため、本番環境に導入する必要があります。サービング・ソリューションは、ゲーム・セッションの終了後に即座にクラス分けを行い、さらなる収益の損失を回避する必要があります。どうすべきでしょうか? You work at a mobile gaming startup that creates online multiplayer games. Recently, your company observed an increase in players cheating in the games, leading to a loss of revenue and a poor user experience You built a binary classification model to determine whether a player cheated after a completed game session, and then send a message to other downstream systems to ban the player that cheated. Your model has performed well during testing, and you now need to deploy the model to production. You want your serving solution to provide immediate classifications after a completed game session to avoid further loss of revenue. What should you do?

    Import the model into Vertex AI Model Registry. Create a Vertex AI endpoint that hosts the model, and make online inference requests.

  • 41

    (Q#241) カスタムモデルのトレーニングを自動化するVertex AIパイプラインを作成しました。異なる実行を実行し、メトリクスを視覚的およびプログラム的に比較する際に、チームが最も簡単にコラボレーションできるパイプラインコンポーネントを追加したいと考えています。どうすればよいでしょうか? You have created a Vertex AI pipeline that automates custom model training. You want to add a pipeline component that enables your team to most easily collaborate when running different executions and comparing metrics both visually and programmatically. What should you do?

    Add a component to the Vertex AI pipeline that logs metrics to Vertex ML Metadata. Use Vertex AI Experiments to compare different executions of the pipeline. Use Vertex AI TensorBoard to visualize metrics.

  • 42

    (Q#242) あなたのチームは、異なるアルゴリズム、パラメータ、データセットを使用する多数のMLモデルをトレーニングしています。あるモデルはVertex AI Pipelinesで学習され、あるモデルはVertex AI Workbenchのノートブックインスタンスで学習されます。チームは、両方のサービス間でモデルのパフォーマンスを比較したいと考えています。パラメータとメトリクスの保存に必要な労力を最小限に抑えたい。どうすればよいでしょうか? Your team is training a large number of ML models that use different algorithms, parameters, and datasets. Some models are trained in Vertex AI Pipelines, and some are trained on Vertex AI Workbench notebook instances. Your team wants to compare the performance of the models across both services. You want to minimize the effort required to store the parameters and metrics. What should you do?

    Create a Vertex AI experiment. Submit all the pipelines as experiment runs. For models trained on notebooks log parameters and metrics by using the Vertex AI SDK.

  • 43

    (Q#243) あなたは、TensorFlowフレームワークを使って最先端のディープラーニングモデルを構築するチームに所属しています。あなたのチームは毎週複数のML実験を実行していますが、実験の実行を追跡するのは困難です。オーバーヘッドのコードを最小限に抑えながら、Google Cloud上でML実験の実行を効率的に追跡、可視化、デバッグするシンプルなアプローチを求めています。どのように進めるべきでしょうか? You work on a team that builds state-of-the-art deep learning models by using the TensorFlow framework. Your team runs multiple ML experiments each week, which makes it difficult to track the experiment runs. You want a simple approach to effectively track, visualize, and debug ML experiment runs on Google Cloud while minimizing any overhead code. How should you proceed?

    Set up Vertex AI Experiments to track metrics and parameters. Configure Vertex AI TensorBoard for visualization.

  • 44

    (Q#244) あなたは繊維製造会社に勤めている。あなたの会社には何百台もの機械があり、それぞれの機械にはたくさんのセンサーがついている。あなたのチームは感覚データを使って、機械の異常を検出する何百ものMLモデルを構築しました。モデルは毎日再学習され、あなたはこれらのモデルをコスト効率の良い方法で展開する必要があります。モデルは24時間365日ダウンタイムなしで稼働し、ミリ秒以下の予測を行わなければなりません。どうすればいいのでしょうか? Your work for a textile manufacturing company. Your company has hundreds of machines, and each machine has many sensors. Your team used the sensory data to build hundreds of ML models that detect machine anomalies. Models are retrained daily, and you need to deploy these models in a cost-effective way. The models must operate 24/7 without downtime and make sub millisecond predictions. What should you do?

    Deploy a Dataflow streaming pipeline with the Runlnference API, and use automatic model refresh.

  • 45

    (Q#245) あなたは、場所、状態、モデルタイプ、色、エンジン/バッテリー効率などのデータに基づいて、中古自動車の価格を予測する ML モデルを開発しています。データは毎晩更新されます。カーディーラーはこのモデルを使って適切な車の価格を決定する。あなたはVertex AIパイプラインを作成しました。このパイプラインでは、データを読み取り、データをトレーニング/評価/テストセットに分割します。 特徴エンジニアリングを実行し、トレーニングデータセットを使用してモデルをトレーニングし、評価データセットを使用してモデルを検証します。コストを最小化する再トレーニングワークフローを構成する必要があります。どうすればよいでしょうか? You are developing an ML model that predicts the cost of used automobiles based on data such as location, condition, model type, color, and engine/battery efficiency. The data is updated every night. Car dealerships will use the model to determine appropriate car prices. You created a Vertex AI pipeline that reads the data splits the data into training/evaluation/test sets performs feature engineering trains the model by using the training dataset and validates the model by using the evaluation dataset. You need to configure a retraining workflow that minimizes cost. What should you do?

    Compare the results to the evaluation results from a previous run. If the performance improved deploy the model to a Vertex AI endpoint with training/serving skew threshold model monitoring. When the model monitoring threshold is triggered redeploy the pipeline.

  • 46

    (Q#246) あなたは最近、BigQuery MLを使用してAutoML回帰モデルをトレーニングしました。結果をチームで共有し、肯定的なフィードバックを得ました。オンライン予測用のモデルをできるだけ早くデプロイする必要があります。どうすればよいでしょうか? You recently used BigQuery ML to train an AutoML regression model. You shared results with your team and received positive feedback. You need to deploy your model for online prediction as quickly as possible. What should you do?

    Alter the model by using BigQuery ML, and specify Vertex AI as the model registry. Deploy the model from Vertex AI Model Registry to a Vertex AI endpoint.

  • 47

    (Q#247) オンプレミスのデータを使用して、ディープラーニングベースの画像分類モデルを構築しました。Vertex AIを使用して、モデルを本番環境に導入したいと考えています。セキュリティ上の懸念から、データをクラウドに移行することはできません。入力データの分布が時間とともに変化する可能性があることを認識している。本番環境でモデルのパフォーマンス変化を検出する必要がある。どうすればよいでしょうか? You built a deep learning-based image classification model by using on-premises data. You want to use Vertex AI to deploy the model to production. Due to security concerns, you cannot move your data to the cloud. You are aware that the input data distribution might change over time. You need to detect model performance changes in production. What should you do?

    Create a Vertex AI Model Monitoring job. Enable feature attribution skew and drift detection for your model.

  • 48

    (Q#248) モデルをトレーニングし、カスタムDockerコンテナでパッケージングしてVertex AI Model Registryにデプロイしました。バッチ予測ジョブを送信すると、このエラーで失敗します: Error model server never became ready. Please validate that your model file or container configuration are valid. ログには追加のエラーはありません。どうすればよいですか? You trained a model packaged it with a custom Docker container for serving, and deployed it to Vertex AI Model Registry. When you submit a batch prediction job, it fails with this error: Error model server never became ready. Please validate that your model file or container configuration are valid. There are no additional errors in the logs. What should you do?

    Pull the Docker image locally, and use the docker run command to launch it locally. Use the docker logs command to explore the error logs

  • 49

    (Q#249) あなたは、画像中の自社製品を識別するためのMLモデルを開発しています。クラウドストレージのバケットにある100万枚以上の画像にアクセスできます。Vertex AI Trainingを使用して、さまざまなTensorFlowモデルを実験する予定です。データI/Oボトルネックを最小限に抑えながら、トレーニング中に画像を大規模に読み込む必要があります。何をすべきでしょうか? You are developing an ML model to identify your company’s products in images. You have access to over one million images in a Cloud Storage bucket. You plan to experiment with different TensorFlow models by using Vertex AI Training. You need to read images at scale during training while minimizing data I/O bottlenecks. What should you do?

    Convert the images to TFRecords and store them in a Cloud Storage bucket. Read the TFRecords by using the tf.data.TFRecordDataset function.

  • 50

    (Q#250) あなたはeコマースの新興企業に勤めている。顧客離脱予測モデルを作成する必要があります。あなたの会社の最近の販売記録はBigQueryテーブルに保存されています。あなたは、初期モデルがどのように予測を行うかを理解したい。また、コストを最小限に抑えながら、できるだけ早くモデルを反復したい。最初のモデルはどのように構築すべきでしょうか? You work at an ecommerce startup. You need to create a customer churn prediction model. Your company’s recent sales records are stored in a BigQuery table. You want to understand how your initial model is making predictions. You also want to iterate on the model as quickly as possible while minimizing cost. How should you build your first model?

    Prepare the data in BigQuery and associate the data with a Vertex AI dataset. Create an AutoMLTabularTrainingJob to tram a classification model.

  • PDE_page4

    PDE_page4

    ユーザ名非公開 · 50問 · 1年前

    PDE_page4

    PDE_page4

    50問 • 1年前
    ユーザ名非公開

    PDE_page5

    PDE_page5

    ユーザ名非公開 · 50問 · 1年前

    PDE_page5

    PDE_page5

    50問 • 1年前
    ユーザ名非公開

    PDE_page6

    PDE_page6

    ユーザ名非公開 · 50問 · 1年前

    PDE_page6

    PDE_page6

    50問 • 1年前
    ユーザ名非公開

    PDE_page7

    PDE_page7

    ユーザ名非公開 · 19問 · 1年前

    PDE_page7

    PDE_page7

    19問 • 1年前
    ユーザ名非公開

    PMLE04

    PMLE04

    ユーザ名非公開 · 50問 · 8ヶ月前

    PMLE04

    PMLE04

    50問 • 8ヶ月前
    ユーザ名非公開

    PMLE06

    PMLE06

    ユーザ名非公開 · 50問 · 8ヶ月前

    PMLE06

    PMLE06

    50問 • 8ヶ月前
    ユーザ名非公開

    PMLE07

    PMLE07

    ユーザ名非公開 · 39問 · 8ヶ月前

    PMLE07

    PMLE07

    39問 • 8ヶ月前
    ユーザ名非公開

    問題一覧

  • 1

    (Q#201) あなたは、大規模なBigQueryテーブルに格納されたデータで分類モデルを学習するVertex AIパイプラインを開発しました。パイプラインには4つのステップがあり、各ステップはKubeFlow v2 APIを使用するPython関数によって作成されます。コンポーネントの名前は次のとおりです: You developed a Vertex AI pipeline that trains a classification model on data stored in a large BigQuery table. The pipeline has four steps, where each step is created by a Python function that uses the KubeFlow v2 API. The components have the following names: dt = datetime.now().strftime(%Y%m%d%H%M%S) f"export-{dt}.yaml", f"preprocess-{dt}.yaml", f"train-{dt}.yaml, fcalibrate-{dt}.yaml" Vertex AIパイプラインを次のように起動する: You launch your Vertex AI pipeline as the following: job = aip.PipelineJob{ display_name=my-awesome-pipeline, template_path=pipeline.json, job_id=fmy-awesome-pipeline-{dt} parameter_values=params, enable_caching=True, location=europe-west1 } 学習ステップのコードとパラメータを調整することで、モデルを何度も繰り返している。開発、特にデータエクスポートと前処理ステップに高いコストがかかっている。モデル開発コストを削減する必要があります。どうすればよいでしょうか? You perform many model iterations by adjusting the code and parameters of the training step. You observe high costs associated with the development, particularly the data export and preprocessing steps. You need to reduce model development costs. What should you do?

    Change the components’ YAML filenames to export.yaml, preprocess,yaml, f train- {dt}.yaml, fcalibrate-{dt).vaml.

  • 2

    (Q#202) あなたは複数のデータサイエンスワークロードを持つ新興企業に勤めています。コンピュートインフラストラクチャは現在オンプレミスで、データサイエンスワークロードはPySparkネイティブです。あなたのチームは、データサイエンスのワークロードをGoogle Cloudに移行することを計画しています。1つのデータサイエンスジョブをGoogle Cloudに移行する概念実証を構築する必要があります。最小限のコストと労力で済む移行プロセスを提案したい。まず何をすべきでしょうか? You work for a startup that has multiple data science workloads. Your compute infrastructure is currently on-premises, and the data science workloads are native to PySpark. Your team plans to migrate their data science workloads to Google Cloud. You need to build a proof of concept to migrate one data science job to Google Cloud. You want to propose a migration process that requires minimal cost and effort. What should you do first?

    Create a Vertex AI Workbench notebook with instance type n2-standard-4.

  • 3

    (Q#203) あなたは銀行に勤めている。ローン申請の決定をサポートする ML モデルの開発を依頼されています。ワークフローにどの Vertex AI サービスを含めるかを決定する必要があります。モデルのトレーニングパラメータとトレーニングエポックごとのメトリクスを追跡する必要があります。モデルの各バージョンのパフォーマンスを比較し、選択したメトリクスに基づいて最適なモデルを決定する予定です。どの Vertex AI サービスを使用する必要がありますか? You work for a bank. You have been asked to develop an ML model that will support loan application decisions. You need to determine which Vertex AI services to include in the workflow. You want to track the model’s training parameters and the metrics per training epoch. You plan to compare the performance of each version of the model to determine the best model based on your chosen metrics. Which Vertex AI services should you use?

    Vertex ML Metadata, Vertex AI Experiments, and Vertex AI TensorBoard

  • 4

    (Q#204) あなたは自動車保険会社に勤めている。あなたは、損傷した車の画像を使って損傷箇所を推測する概念実証のMLアプリケーションを準備しています。あなたのチームは、会社のデータベースにある損害賠償請求文書から、注釈付き画像のセットを集めました。各画像に関連付けられた注釈は、識別された損傷部品のバウンディングボックスと部品名で構成されています。Google Cloud でモデルを学習するための十分な予算が与えられています。初期モデルを迅速に作成する必要があります。何をすべきでしょうか? You work for an auto insurance company. You are preparing a proof-of-concept ML application that uses images of damaged vehicles to infer damaged parts. Your team has assembled a set of annotated images from damage claim documents in the company’s database. The annotations associated with each image consist of a bounding box for each identified damaged part and the part name. You have been given a sufficient budget to train models on Google Cloud. You need to quickly create an initial model. What should you do?

    Train an object detection model in AutoML by using the annotated image data.

  • 5

    (Q#205) あなたは、クラウド・ストレージに保存されている医療機関の顧客データを分析しています。データには個人を特定できる情報(PII)が含まれています。あなたは、機密フィールドのセキュリティとプライバシーを確保しながら、データ探索と前処理を実行する必要があります。あなたは何をすべきでしょうか? You are analyzing customer data for a healthcare organization that is stored in Cloud Storage. The data contains personally identifiable information (PII). You need to perform data exploration and preprocessing while ensuring the security and privacy of sensitive fields. What should you do?

    Use the Cloud Data Loss Prevention (DLP) API to de-identify the PII before performing data exploration and preprocessing.

  • 6

    (Q#206) あなたは、橋の部品の欠陥を事前に検出するための予知保全モデルを構築しています。橋梁の高精細画像をモデル入力として使用する予定です。関連する利害関係者が適切な行動を取れるように、モデルの出力を説明する必要があります。どのようにモデルを構築すべきでしょうか? You are building a predictive maintenance model to preemptively detect part defects in bridges. You plan to use high definition images of the bridges as model inputs. You need to explain the output of the model to the relevant stakeholders so they can take appropriate action. How should you build the model?

    Use TensorFlow to create a deep learning-based model, and use Integrated Gradients to explain the model output.

  • 7

    (Q#207) あなたは、手術スケジュールの最適化を望む病院に勤務しています。あなたは、予定されている手術の数と使用されている病床の間の関係を使用するモデルを作成する必要があります。あなたは、予定された手術に基づいて、毎日患者のために必要なベッド数を事前に予測したい。365行で編成された病院の1年間のデータがあります。 データには、各日の以下の変数が含まれます: 予定されている手術の数 ・占有されているベッドの数 ・日付 あなたはモデルの開発とテストのスピードを最大化したい。何をすべきでしょうか? You work for a hospital that wants to optimize how it schedules operations. You need to create a model that uses the relationship between the number of surgeries scheduled and beds used. You want to predict how many beds will be needed for patients each day in advance based on the scheduled surgeries. You have one year of data for the hospital organized in 365 rows. The data includes the following variables for each day: ・Number of scheduled surgeries ・Number of beds occupied ・Date You want to maximize the speed of model development and testing. What should you do?

    Create a Vertex AI tabular dataset. Train a Vertex AI AutoML Forecasting model, with number of beds as the target variable, number of scheduled surgeries as a covariate and date as the time variable.

  • 8

    (Q#208) あなたは最近、TensorFlowで幅広く深いモデルを開発しました。SQLスクリプトを使用してトレーニングデータセットを生成し、データのインスタンスレベルの変換を実行することで、BigQueryの生データを前処理しました。モデルを週単位で再トレーニングするためのトレーニングパイプラインを作成する必要があります。トレーニングされたモデルは、毎日のレコメンデーションの生成に使用されます。モデルの開発とトレーニングにかかる時間を最小限に抑えたい。トレーニングパイプラインはどのように開発すべきでしょうか? You recently developed a wide and deep model in TensorFlow. You generated training datasets using a SQL script that preprocessed raw data in BigQuery by performing instance-level transformations of the data. You need to create a training pipeline to retrain the model on a weekly basis. The trained model will be used to generate daily recommendations. You want to minimize model development and training time. How should you develop the training pipeline?

    Use the Kubeflow Pipelines SDK to implement the pipeline. Use the BigQueryJobOp component to run the preprocessing script and the CustomTrainingJobOp component to launch a Vertex AI training job.

  • 9

    (Q#209) あなたは、大規模なデータセットを使用して、自社のカスタム言語モデルをトレーニングしています。Vertex AI の Reduction Server ストラテジーを使用する予定です。分散トレーニングジョブのワーカープールを構成する必要があります。何をすべきでしょうか? You are training a custom language model for your company using a large dataset. You plan to use the Reduction Server strategy on Vertex AI. You need to configure the worker pools of the distributed training job. What should you do?

    Configure the machines of the first two worker pools to have GPUs and to use a container image where your training code runs. Configure the third worker pool to use the reductionserver container image without accelerators, and choose a machine type that prioritizes bandwidth.

  • 10

    (Q#210) バッチDataflowパイプラインで前処理されたデータを使用してモデルをトレーニングした。ユースケースにはリアルタイムの推論が必要です。データの前処理ロジックが、トレーニング時とサービング時で一貫して適用されるようにしたい。どうすればよいでしょうか? You have trained a model by using data that was preprocessed in a batch Dataflow pipeline. Your use case requires real-time inference. You want to ensure that the data preprocessing logic is applied consistently between training and serving. What should you do?

    Refactor the transformation code in the batch data pipeline so that it can be used outside of the pipeline. Use the same code in the endpoint.

  • 11

    (Q#211) オンライン予測に使用するカスタムTensorFlowモデルを開発する必要があります。トレーニングデータはBigQueryに格納されています。モデルの学習と配信のために、データにインスタンスレベルのデータ変換を適用する必要があります。モデルのトレーニングと配信で同じ前処理ルーチンを使用したい。前処理ルーチンはどのように構成する必要がありますか? You need to develop a custom TensorFlow model that will be used for online predictions. The training data is stored in BigQuery. You need to apply instance-level data transformations to the data for model training and serving. You want to use the same preprocessing routine during model training and serving. How should you configure the preprocessing routine?

    Create an Apache Beam pipeline to read the data from BigQuery and preprocess it by using TensorFlow Transform and Dataflow.

  • 12

    (Q#212) Google Cloud上で大規模な言語モデルを事前トレーニングしています。このモデルには、カスタムTensorFlow操作がトレーニングループに含まれています。モデルのトレーニングには大きなバッチサイズが使用され、トレーニングには数週間かかると予想されます。トレーニング時間と計算コストの両方を最小化するトレーニング・アーキテクチャを構成する必要があります。どうすればよいでしょうか? You are pre-training a large language model on Google Cloud. This model includes custom TensorFlow operations in the training loop. Model training will use a large batch size, and you expect training to take several weeks. You need to configure a training architecture that minimizes both training time and compute costs. What should you do?

    Implement a TPU Pod slice with -accelerator-type=v4-l28 by using tf.distribute.TPUStrategy.

  • 13

    (Q#213) あなたは、数十億の画像とそれぞれのキャプションを含むデータセットを使用して、TensorFlowのテキストから画像への生成モデルを構築しています。クラウドストレージのバケットからデータを読み込んで統計情報を収集し、データセットをトレーニング/検証/テストデータセットに分割してデータ変換を実行し、トレーニング/検証データセットを使用してモデルをトレーニングし、テストデータセットを使用してモデルを検証する、メンテナンスの少ない自動化されたワークフローを作成したいと考えています。あなたは何をすべきでしょうか? You are building a TensorFlow text-to-image generative model by using a dataset that contains billions of images with their respective captions. You want to create a low maintenance, automated workflow that reads the data from a Cloud Storage bucket collects statistics, splits the dataset into training/validation/test datasets performs data transformations trains the model using the training/validation datasets, and validates the model by using the test dataset. What should you do?

    Use the TensorFlow Extended (TFX) SDK to create multiple components that use Dataflow and Vertex AI services. Deploy the workflow on Vertex AI Pipelines.

  • 14

    (Q#214) Vertex AI Pipelines を使用して ML パイプラインを開発しています。パイプラインは、XGBoost モデルの新しいバージョンを Vertex AI Model Registry にアップロードし、オンライン推論のために Vertex AI Endpoints にデプロイします。最も単純なアプローチを使用したい。どうすればよいでしょうか? You are developing an ML pipeline using Vertex AI Pipelines. You want your pipeline to upload a new version of the XGBoost model to Vertex AI Model Registry and deploy it to Vertex AI Endpoints for online inference. You want to use the simplest approach. What should you do?

    Chain the Vertex AI ModelUploadOp and ModelDeployOp components together

  • 15

    (Q#215) あなたはオンライン小売業者に勤めている。ライフサイクルの短い商品を数千点扱っている。5年分の販売データがBigQueryに保存されています。あなたは、各商品の毎月の売上予測を行うモデルの構築を依頼されました。最小限の労力で迅速に実装できるソリューションを使用したい。どうすればよいでしょうか? You work for an online retailer. Your company has a few thousand short lifecycle products. Your company has five years of sales data stored in BigQuery. You have been asked to build a model that will make monthly sales predictions for each product. You want to use a solution that can be implemented quickly with minimal effort. What should you do?

    Use BigQuery ML to build a statistical ARIMA_PLUS model.

  • 16

    (Q#216) テキストベースの製品レビューからセンチメントスコアを予測するモデルトレーニングパイプラインを作成しています。モデルのパラメータを調整する方法を制御できるようにし、モデルをトレーニングした後にエンドポイントにデプロイします。パイプラインの実行には Vertex AI Pipelines を使用します。どのGoogle Cloudパイプラインコンポーネントを使用するかを決定する必要があります。どのコンポーネントを選ぶべきか? You are creating a model training pipeline to predict sentiment scores from text-based product reviews. You want to have control over how the model parameters are tuned, and you will deploy the model to an endpoint after it has been trained. You will use Vertex AI Pipelines to run the pipeline. You need to decide which Google Cloud pipeline components to use. What components should you choose?

    TextDatasetCreateOp, CustomTrainingJobOp, and ModelDeployOp

  • 17

    (Q#217) あなたのチームは頻繁に新しいMLモデルを作成し、実験を実行します。チームはクラウド・ソース・リポジトリーにホストされた単一のリポジトリにコードをプッシュします。継続的インテグレーションパイプラインを作成し、コードが変更されるたびにモデルを自動的に再トレーニングしたい。CIパイプラインをセットアップするための最初のステップは何でしょうか? Your team frequently creates new ML models and runs experiments. Your team pushes code to a single repository hosted on Cloud Source Repositories. You want to create a continuous integration pipeline that automatically retrains the models whenever there is any modification of the code. What should be your first step to set up the CI pipeline?

    Configure a Cloud Build trigger with the event set as Push to a branch

  • 18

    (Q#218) あなたは、予測を行う前にいくつかのメモリ集約的な前処理タスクを実行するカスタムモデルを構築しました。このモデルを Vertex AI エンドポイントにデプロイし、結果が妥当な時間で受信されることを検証しました。エンドポイントにユーザートラフィックをルーティングした後、複数のリクエストを受信したときにエンドポイントが期待どおりにオートスケールしないことを発見しました。どうすればよいでしょうか? You have built a custom model that performs several memory-intensive preprocessing tasks before it makes a prediction. You deployed the model to a Vertex AI endpoint, and validated that results were received in a reasonable amount of time. After routing user traffic to the endpoint, you discover that the endpoint does not autoscale as expected when receiving multiple requests. What should you do?

    Decrease the CPU utilization target in the autoscaling configurations

  • 19

    (Q#219) あなたの会社はeコマースサイトを運営しています。あなたは、ユーザーのカートに現在入っている商品に基づいて、ほぼリアルタイムでユーザーに追加商品を推奨するMLモデルを開発しました。ワークフローは以下のプロセスを含みます: 1. ウェブサイトは関連データをPub/Subメッセージで送信し、Pub/Subから予測をメッセージで受信する。 2. 予測はBigQueryに保存される。 3. モデルはクラウドストレージのバケットに保存され、頻繁に更新される。 予測のレイテンシーとモデルの更新に必要な労力を最小限にしたい。どのようにアーキテクチャを構成し直すべきか? Your company manages an ecommerce website. You developed an ML model that recommends additional products to users in near real time based on items currently in the user’s cart. The workflow will include the following processes: 1. The website will send a Pub/Sub message with the relevant data and then receive a message with the prediction from Pub/Sub 2. Predictions will be stored in BigQuery 3. The model will be stored in a Cloud Storage bucket and will be updated frequently You want to minimize prediction latency and the effort required to update the model. How should you reconfigure the architecture?

    Use the RunInference API with WatchFilePattern in a Dataflow job that wraps around the model and serves predictions.

  • 20

    (Q#220) あなたはチームと共同でモデルのプロトタイプを作成しています。チームメンバー用にVertex AI Workbench環境を作成し、プロジェクト内の他の従業員へのアクセスも制限する必要があります。どうすればよいでしょうか? You are collaborating on a model prototype with your team. You need to create a Vertex AI Workbench environment for the members of your team and also limit access to other employees in your project. What should you do?

    1. Create a new service account and grant it the Notebook Viewer role 2. Grant the Service Account User role to each team member on the service account 3. Grant the Vertex AI User role to each team member 4. Provision a Vertex AI Workbench user-managed notebook instance that uses the new service account

  • 21

    (Q#221) あなたは大手ヘルスケア企業で、様々なユースケースに対応する最先端のアルゴリズムを開発しています。あなたはカスタムラベルを持つ非構造化テキストデータを持っています。このラベルを使って様々な医療フレーズを抽出し、分類する必要があります。どうすればいいでしょうか? You work at a leading healthcare firm developing state-of-the-art algorithms for various use cases. You have unstructured textual data with custom labels. You need to extract and classify various medical phrases with these labels. What should you do?

    Use AutoML Entity Extraction to train a medical entity extraction model

  • 22

    (Q#222) アプリケーションのユーザー解約率を予測するために、Vertex AI を使用してカスタムモデルを開発しました。スキュー検出のためにVertex AI Model Monitoringを使用しています。BigQueryに保存されたトレーニングデータには、人口統計と行動の2つの特徴セットが含まれています。後に、それぞれのセットでトレーニングされた2つの別々のモデルが、元のモデルよりも優れたパフォーマンスを示すことがわかりました。2つのモデル間でトラフィックを分割する新しいモデルモニタリングパイプラインを構成する必要があります。各モデルに同じ予測サンプリング・レートと監視頻度を使用したい。また、管理工数を最小限に抑えたい。どうすればよいでしょうか? You developed a custom model by using Vertex AI to predict your application's user churn rate. You are using Vertex AI Model Monitoring for skew detection. The training data stored in BigQuery contains two sets of features - demographic and behavioral. You later discover that two separate models trained on each set perform better than the original model. You need to configure a new model monitoring pipeline that splits traffic among the two models. You want to use the same prediction-sampling-rate and monitoring-frequency for each model. You also want to minimize management effort. What should you do?

    Keep the training dataset as is. Deploy both models to the same endpoint and submit a Vertex AI Model Monitoring job with a monitoring-config-from-file parameter that accounts for the model IDs and feature selections.

  • 23

    (Q#223) あなたはカナダに本社を置く製薬会社に勤務しています。あなたのチームは、カナダにおける翌月のインフルエンザ感染数を予測するBigQuery MLモデルを開発しました。気象データは毎週公開され、インフルエンザの感染統計は毎月公開されます。あなたは、コストを最小化するモデルの再トレーニングポリシーを構成する必要があります。何をすべきでしょうか? You work for a pharmaceutical company based in Canada. Your team developed a BigQuery ML model to predict the number of flu infections for the next month in Canada. Weather data is published weekly, and flu infection statistics are published monthly. You need to configure a model retraining policy that minimizes cost. What should you do?

    Download the weather data each week, and download the flu data each month. Deploy the model to a Vertex AI endpoint with feature drift monitoring, and retrain the model if a monitoring alert is detected.

  • 24

    (Q#224) あなたはML実験とモデルの再トレーニングを自動化するMLOpsプラットフォームを構築しています。何十ものパイプラインの成果物を整理する必要があります。パイプラインの成果物はどのように保管すべきでしょうか? You are building a MLOps platform to automate your company’s ML experiments and model retraining. You need to organize the artifacts for dozens of pipelines. How should you store the pipelines’ artifacts?

    Store parameters in Vertex ML Metadata, store the models’ source code in GitHub, and store the models’ binaries in Cloud Storage.

  • 25

    (Q#225) あなたは電気通信会社に勤めている。あなたは、次の電話料金の支払いが滞る可能性のある顧客を予測するモデルを構築しています。このモデルの目的は、サービスの割引や請求期限の延長など、リスクのある顧客に積極的な支援を提供することです。データはBigQueryに保存され、モデルトレーニングに利用可能な予測機能には以下が含まれます: - 顧客ID - 年齢 - 給与(現地通貨) - 性別 - 平均請求額(現地通貨) - 直近1ヶ月の通話回数(整数) - 平均通話時間(分単位) モデルの精度を保ちつつ、不利な立場にあるグループに対する潜在的な偏りを調査し、緩和する必要があります。 何をすべきでしょうか? You work for a telecommunications company. You’re building a model to predict which customers may fail to pay their next phone bill. The purpose of this model is to proactively offer at-risk customers assistance such as service discounts and bill deadline extensions. The data is stored in BigQuery and the predictive features that are available for model training include: - Customer_id - Age - Salary (measured in local currency) - Sex - Average bill value (measured in local currency) - Number of phone calls in the last month (integer) - Average duration of phone calls (measured in minutes) You need to investigate and mitigate potential bias against disadvantaged groups, while preserving model accuracy. What should you do?

    Define a fairness metric that is represented by accuracy across the sensitive features. Train a BigQuery ML boosted trees classification model with all features. Use the trained model to make predictions on a test set. Join the data back with the sensitive features, and calculate a fairness metric to investigate whether it meets your requirements.

  • 26

    (Q#226) あなたは最近XGBoostモデルを学習し、オンライン推論のために実運用にデプロイする予定です。モデルのバイナリに予測要求を送信する前に、簡単なデータ前処理ステップを実行する必要があります。このステップは、内部の VPC Service Controls でリクエストを受け付け、予測を返す REST API を公開します。コストと労力を最小限に抑えながら、この前処理ステップを構成したいとします。どうすればよいでしょうか。 You recently trained a XGBoost model that you plan to deploy to production for online inference. Before sending a predict request to your model’s binary, you need to perform a simple data preprocessing step. This step exposes a REST API that accepts requests in your internal VPC Service Controls and returns predictions. You want to configure this preprocessing step while minimizing cost and effort. What should you do?

    Build a custom predictor class based on XGBoost Predictor from the Vertex AI SDK, and package the handler in a custom container image based on a Vertex built-in container image. Store a pickled model in Cloud Storage, and deploy the model to Vertex AI Endpoints.

  • 27

    (Q#227) あなたは銀行に勤めています。あなたは、融資申請の決定をサポートする信用リスクモデルを開発する必要があります。あなたは、TensorFlowのニューラルネットワークを使用してモデルを実装することに決めました。規制上の要件により、モデルの特徴に基づいてモデルの予測を説明できるようにする必要があります。また、モデルの導入時には、モデルのパフォーマンスを長期にわたって監視する必要があります。モデルの開発と展開の両方にVertex AIを使用することにしました。何をすべきでしょうか? You work at a bank. You need to develop a credit risk model to support loan application decisions. You decide to implement the model by using a neural network in TensorFlow. Due to regulatory requirements, you need to be able to explain the model’s predictions based on its features. When the model is deployed, you also want to monitor the model’s performance over time. You decided to use Vertex AI for both model development and deployment. What should you do?

    Use Vertex Explainable AI with the sampled Shapley method, and enable Vertex AI Model Monitoring to check for feature distribution drift.

  • 28

    (Q#228) あるモデルで誤分類エラーが発生したため、その根本原因を調査しています。Vertex AI Pipelinesを使用してモデルをトレーニングし、デプロイしました。パイプラインはBigQueryからデータを読み込み、クラウドストレージにTFRecord形式でデータのコピーを作成し、そのコピーに対してVertex AI Trainingでモデルをトレーニングし、モデルをVertex AIエンドポイントにデプロイします。誤分類したモデルの特定のバージョンを特定したので、このモデルがトレーニングされたデータを回復する必要があります。そのデータのコピーはどのように見つけるべきでしょうか? You are investigating the root cause of a misclassification error made by one of your models. You used Vertex AI Pipelines to train and deploy the model. The pipeline reads data from BigQuery. creates a copy of the data in Cloud Storage in TFRecord format, trains the model in Vertex AI Training on that copy, and deploys the model to a Vertex AI endpoint. You have identified the specific version of that model that misclassified, and you need to recover the data this model was trained on. How should you find that copy of the data?

    Use the lineage feature of Vertex AI Metadata to find the model artifact. Determine the version of the model and identify the step that creates the data copy and search in the metadata for its location.

  • 29

    (Q#229) あなたは製造会社に勤めています。組立ラインの最後にある製品の欠陥を検出するために、カスタム画像分類モデルをトレーニングする必要があります。モデルの性能は良好ですが、ホールドアウト集合の一部の画像は常に高い信頼性で誤ラベル付けされています。Vertex AI を使用して、モデルの結果を理解したいとします。どうすればよいでしょうか? You work for a manufacturing company. You need to train a custom image classification model to detect product defects at the end of an assembly line. Although your model is performing well, some images in your holdout set are consistently mislabeled with high confidence. You want to use Vertex AI to understand your model’s results. What should you do?

    Configure example-based explanations. Specify the embedding output layer to be used for the latent space representation.

  • 30

    (Q#230) 複数の Google Cloud プロジェクトにまたがるデータを使用して、Vertex AI でモデルをトレーニングしています。異なるバージョンのモデルのパフォーマンスを見つけ、追跡し、比較する必要があります。どの Google Cloud サービスを ML ワークフローに含めるべきでしょうか? You are training models in Vertex AI by using data that spans across multiple Google Cloud projects. You need to find, track, and compare the performance of the different versions of your models. Which Google Cloud services should you include in your ML workflow?

    Vertex AI Pipelines, Vertex AI Experiments, and Vertex AI Metadata

  • 31

    (Q#231) あなたはKerasとTensorFlowを使って不正検出モデルを開発しています。顧客取引のレコードは、BigQueryの大きなテーブルに保存されています。これらのレコードをモデルの学習に使用する前に、費用対効果が高く効率的な方法で前処理する必要があります。学習されたモデルは、BigQueryでバッチ推論を実行するために使用されます。前処理ワークフローはどのように実装すべきでしょうか? You are using Keras and TensorFlow to develop a fraud detection model. Records of customer transactions are stored in a large table in BigQuery. You need to preprocess these records in a cost-effective and efficient way before you use them to train the model. The trained model will be used to perform batch inference in BigQuery. How should you implement the preprocessing workflow?

    Perform preprocessing in BigQuery by using SQL. Use the BigQueryClient in TensorFlow to read the data directly from BigQuery.

  • 32

    (Q#232) TensorFlowを使って画像分類モデルを学習する必要がある。データセットはクラウドストレージディレクトリにあり、数百万のラベル付き画像が含まれています。モデルをトレーニングする前に、データを準備する必要があります。データの前処理とモデルのトレーニングのワークフローは、できるだけ効率的で、スケーラブルで、メンテナンスが少なくて済むようにしたいものです。何をすべきでしょうか? You need to use TensorFlow to train an image classification model. Your dataset is located in a Cloud Storage directory and contains millions of labeled images. Before training the model, you need to prepare the data. You want the data preprocessing and model training workflow to be as efficient, scalable, and low maintenance as possible. What should you do?

    1. Create a Dataflow job that creates sharded TFRecord files in a Cloud Storage directory. 2. Reference tf.data.TFRecordDataset in the training script. 3. Train the model by using Vertex AI Training with a V100 GPU.

  • 33

    (Q#233) あなたはカスタム画像分類モデルを構築しており、Vertex AI Pipelinesを使用してエンドツーエンドのトレーニングを実施する予定です。データセットは、モデルの学習に使用する前に前処理が必要な画像で構成されています。前処理のステップには、画像のサイズ変更、グレースケールへの変換、特徴の抽出が含まれます。あなたはすでに前処理タスクのためにいくつかのPython関数を実装しています。パイプラインでどのコンポーネントを使うべきでしょうか? You are building a custom image classification model and plan to use Vertex AI Pipelines to implement the end-to-end training. Your dataset consists of images that need to be preprocessed before they can be used to train the model. The preprocessing steps include resizing the images, converting them to grayscale, and extracting features. You have already implemented some Python functions for the preprocessing tasks. Which components should you use in your pipeline?

    dsl.ParallelFor, dsl.component, and CustomTrainingJobOp

  • 34

    (Q#234) あなたは、BigQuery MLで構築した回帰モデルを使用して商品の売上を予測している小売企業に勤務しています。このモデルはオンライン予測に使用されています。最近、あなたは異なるアーキテクチャ(カスタムモデル)を使用するモデルの新バージョンを開発しました。初期分析の結果、どちらのモデルも期待通りのパフォーマンスであることがわかりました。あなたは、新バージョンのモデルを本番稼動に導入し、今後 2 か月にわたってパフォーマンスを監視したいと考えています。既存および将来のモデル・ユーザーへの影響を最小限に抑える必要があります。どのようにモデルを展開すべきでしょうか? You work for a retail company that is using a regression model built with BigQuery ML to predict product sales. This model is being used to serve online predictions. Recently you developed a new version of the model that uses a different architecture (custom model). Initial analysis revealed that both models are performing as expected. You want to deploy the new version of the model to production and monitor the performance over the next two months. You need to minimize the impact to the existing and future model users. How should you deploy the model?

    Import the new model to the same Vertex AI Model Registry as a different version of the existing model. Deploy the new model to the same Vertex AI endpoint as the existing model, and use traffic splitting to route 95% of production traffic to the BigQuery ML model and 5% of production traffic to the new model.

  • 35

    (Q#235) Vertex AIとTensorFlowを使用して、カスタム画像分類モデルを開発しています。モデルの決定とその根拠を、貴社の利害関係者が理解できるようにする必要があります。また、結果を調査して、問題や潜在的なバイアスを特定したいと考えています。どうすればよいでしょうか? You are using Vertex AI and TensorFlow to develop a custom image classification model. You need the model’s decisions and the rationale to be understandable to your company’s stakeholders. You also want to explore the results to identify any issues or potential biases. What should you do?

    1. Use Vertex Explainable AI to generate feature attributions. Aggregate feature attributions over the entire dataset. 2. Analyze the aggregation result together with the standard model evaluation metrics.

  • 36

    (Q#236) あなたは大手小売企業に勤めており、顧客離れを予測するモデルを構築する必要があります。この会社には、顧客の人口統計、購買履歴、Webサイトのアクティビティなど、過去の顧客データのデータセットがあります。あなたはBigQuery MLでモデルを作成し、そのパフォーマンスを徹底的に評価する必要があります。何をすべきでしょうか? You work for a large retailer, and you need to build a model to predict customer churn. The company has a dataset of historical customer data, including customer demographics purchase history, and website activity. You need to create the model in BigQuery ML and thoroughly evaluate its performance. What should you do?

    Create a logistic regression model in BigQuery ML and register the model in Vertex AI Model Registry. Evaluate the model performance in Vertex AI .

  • 37

    (Q#237) あなたは、自動車のダッシュボードから撮影した動画から抽出した画像中の交通標識を識別するモデルを開発している。あなたは、10種類の交通標識のうちの1つが表示されるようにトリミングされた100,000枚の画像のデータセットを持っています。画像はモデル学習用にラベル付けされ、クラウドストレージのバケットに保存されています。各トレーニング実行中にモデルをチューニングできるようにする必要があります。どのようにモデルをトレーニングすればよいのでしょうか? You are developing a model to identify traffic signs in images extracted from videos taken from the dashboard of a vehicle. You have a dataset of 100,000 images that were cropped to show one out of ten different traffic signs. The images have been labeled accordingly for model training, and are stored in a Cloud Storage bucket. You need to be able to tune the model during each training run. How should you train the model?

    Develop the model training code for image classification, and train a model by using Vertex AI custom training.

  • 38

    (Q#238) カスタムモデルサーバを使用して、Vertex AIエンドポイントにscikit-teamモデルをデプロイしました。自動スケーリングを有効にしましたが、デプロイされたモデルは 1 つのレプリカを超えるスケーリングに失敗し、リクエストのドロップにつながりました。高負荷時でもCPU使用率が低いままであることに気づきました。どうすればよいでしょうか。 You have deployed a scikit-team model to a Vertex AI endpoint using a custom model server. You enabled autoscaling: however, the deployed model fails to scale beyond one replica, which led to dropped requests. You notice that CPU utilization remains low even during periods of high load. What should you do?

    Increase the number of workers in your model server

  • 39

    (Q#239) あなたは、オンラインフォーラムを管理するペットフード会社に勤めています。顧客は自分のペットの写真をフォーラムにアップロードし、他の人と共有します。毎日約20枚の写真がアップロードされます。あなたは、アップロードされた写真に動物が写っているかどうかをほぼリアルタイムで自動的に検出したいと考えています。アプリケーションの開発と展開にかかる時間を優先し、コストを最小限に抑えたい。どうすればいいでしょうか? You work for a pet food company that manages an online forum. Customers upload photos of their pets on the forum to share with others. About 20 photos are uploaded daily. You want to automatically and in near real time detect whether each uploaded photo has an animal. You want to prioritize time and minimize cost of your application development and deployment. What should you do?

    Send user-submitted images to the Cloud Vision API. Use object localization to identify all objects in the image and compare the results against a list of animals.

  • 40

    (Q#240) あなたは、オンラインマルチプレイヤーゲームを開発するモバイルゲームの新興企業に勤めています。最近、ゲームで不正行為を行うプレイヤーが増加し、収益の損失とユーザーエクスペリエンスの低下につながりました。このモデルは、テスト中に良好なパフォーマンスを示したため、本番環境に導入する必要があります。サービング・ソリューションは、ゲーム・セッションの終了後に即座にクラス分けを行い、さらなる収益の損失を回避する必要があります。どうすべきでしょうか? You work at a mobile gaming startup that creates online multiplayer games. Recently, your company observed an increase in players cheating in the games, leading to a loss of revenue and a poor user experience You built a binary classification model to determine whether a player cheated after a completed game session, and then send a message to other downstream systems to ban the player that cheated. Your model has performed well during testing, and you now need to deploy the model to production. You want your serving solution to provide immediate classifications after a completed game session to avoid further loss of revenue. What should you do?

    Import the model into Vertex AI Model Registry. Create a Vertex AI endpoint that hosts the model, and make online inference requests.

  • 41

    (Q#241) カスタムモデルのトレーニングを自動化するVertex AIパイプラインを作成しました。異なる実行を実行し、メトリクスを視覚的およびプログラム的に比較する際に、チームが最も簡単にコラボレーションできるパイプラインコンポーネントを追加したいと考えています。どうすればよいでしょうか? You have created a Vertex AI pipeline that automates custom model training. You want to add a pipeline component that enables your team to most easily collaborate when running different executions and comparing metrics both visually and programmatically. What should you do?

    Add a component to the Vertex AI pipeline that logs metrics to Vertex ML Metadata. Use Vertex AI Experiments to compare different executions of the pipeline. Use Vertex AI TensorBoard to visualize metrics.

  • 42

    (Q#242) あなたのチームは、異なるアルゴリズム、パラメータ、データセットを使用する多数のMLモデルをトレーニングしています。あるモデルはVertex AI Pipelinesで学習され、あるモデルはVertex AI Workbenchのノートブックインスタンスで学習されます。チームは、両方のサービス間でモデルのパフォーマンスを比較したいと考えています。パラメータとメトリクスの保存に必要な労力を最小限に抑えたい。どうすればよいでしょうか? Your team is training a large number of ML models that use different algorithms, parameters, and datasets. Some models are trained in Vertex AI Pipelines, and some are trained on Vertex AI Workbench notebook instances. Your team wants to compare the performance of the models across both services. You want to minimize the effort required to store the parameters and metrics. What should you do?

    Create a Vertex AI experiment. Submit all the pipelines as experiment runs. For models trained on notebooks log parameters and metrics by using the Vertex AI SDK.

  • 43

    (Q#243) あなたは、TensorFlowフレームワークを使って最先端のディープラーニングモデルを構築するチームに所属しています。あなたのチームは毎週複数のML実験を実行していますが、実験の実行を追跡するのは困難です。オーバーヘッドのコードを最小限に抑えながら、Google Cloud上でML実験の実行を効率的に追跡、可視化、デバッグするシンプルなアプローチを求めています。どのように進めるべきでしょうか? You work on a team that builds state-of-the-art deep learning models by using the TensorFlow framework. Your team runs multiple ML experiments each week, which makes it difficult to track the experiment runs. You want a simple approach to effectively track, visualize, and debug ML experiment runs on Google Cloud while minimizing any overhead code. How should you proceed?

    Set up Vertex AI Experiments to track metrics and parameters. Configure Vertex AI TensorBoard for visualization.

  • 44

    (Q#244) あなたは繊維製造会社に勤めている。あなたの会社には何百台もの機械があり、それぞれの機械にはたくさんのセンサーがついている。あなたのチームは感覚データを使って、機械の異常を検出する何百ものMLモデルを構築しました。モデルは毎日再学習され、あなたはこれらのモデルをコスト効率の良い方法で展開する必要があります。モデルは24時間365日ダウンタイムなしで稼働し、ミリ秒以下の予測を行わなければなりません。どうすればいいのでしょうか? Your work for a textile manufacturing company. Your company has hundreds of machines, and each machine has many sensors. Your team used the sensory data to build hundreds of ML models that detect machine anomalies. Models are retrained daily, and you need to deploy these models in a cost-effective way. The models must operate 24/7 without downtime and make sub millisecond predictions. What should you do?

    Deploy a Dataflow streaming pipeline with the Runlnference API, and use automatic model refresh.

  • 45

    (Q#245) あなたは、場所、状態、モデルタイプ、色、エンジン/バッテリー効率などのデータに基づいて、中古自動車の価格を予測する ML モデルを開発しています。データは毎晩更新されます。カーディーラーはこのモデルを使って適切な車の価格を決定する。あなたはVertex AIパイプラインを作成しました。このパイプラインでは、データを読み取り、データをトレーニング/評価/テストセットに分割します。 特徴エンジニアリングを実行し、トレーニングデータセットを使用してモデルをトレーニングし、評価データセットを使用してモデルを検証します。コストを最小化する再トレーニングワークフローを構成する必要があります。どうすればよいでしょうか? You are developing an ML model that predicts the cost of used automobiles based on data such as location, condition, model type, color, and engine/battery efficiency. The data is updated every night. Car dealerships will use the model to determine appropriate car prices. You created a Vertex AI pipeline that reads the data splits the data into training/evaluation/test sets performs feature engineering trains the model by using the training dataset and validates the model by using the evaluation dataset. You need to configure a retraining workflow that minimizes cost. What should you do?

    Compare the results to the evaluation results from a previous run. If the performance improved deploy the model to a Vertex AI endpoint with training/serving skew threshold model monitoring. When the model monitoring threshold is triggered redeploy the pipeline.

  • 46

    (Q#246) あなたは最近、BigQuery MLを使用してAutoML回帰モデルをトレーニングしました。結果をチームで共有し、肯定的なフィードバックを得ました。オンライン予測用のモデルをできるだけ早くデプロイする必要があります。どうすればよいでしょうか? You recently used BigQuery ML to train an AutoML regression model. You shared results with your team and received positive feedback. You need to deploy your model for online prediction as quickly as possible. What should you do?

    Alter the model by using BigQuery ML, and specify Vertex AI as the model registry. Deploy the model from Vertex AI Model Registry to a Vertex AI endpoint.

  • 47

    (Q#247) オンプレミスのデータを使用して、ディープラーニングベースの画像分類モデルを構築しました。Vertex AIを使用して、モデルを本番環境に導入したいと考えています。セキュリティ上の懸念から、データをクラウドに移行することはできません。入力データの分布が時間とともに変化する可能性があることを認識している。本番環境でモデルのパフォーマンス変化を検出する必要がある。どうすればよいでしょうか? You built a deep learning-based image classification model by using on-premises data. You want to use Vertex AI to deploy the model to production. Due to security concerns, you cannot move your data to the cloud. You are aware that the input data distribution might change over time. You need to detect model performance changes in production. What should you do?

    Create a Vertex AI Model Monitoring job. Enable feature attribution skew and drift detection for your model.

  • 48

    (Q#248) モデルをトレーニングし、カスタムDockerコンテナでパッケージングしてVertex AI Model Registryにデプロイしました。バッチ予測ジョブを送信すると、このエラーで失敗します: Error model server never became ready. Please validate that your model file or container configuration are valid. ログには追加のエラーはありません。どうすればよいですか? You trained a model packaged it with a custom Docker container for serving, and deployed it to Vertex AI Model Registry. When you submit a batch prediction job, it fails with this error: Error model server never became ready. Please validate that your model file or container configuration are valid. There are no additional errors in the logs. What should you do?

    Pull the Docker image locally, and use the docker run command to launch it locally. Use the docker logs command to explore the error logs

  • 49

    (Q#249) あなたは、画像中の自社製品を識別するためのMLモデルを開発しています。クラウドストレージのバケットにある100万枚以上の画像にアクセスできます。Vertex AI Trainingを使用して、さまざまなTensorFlowモデルを実験する予定です。データI/Oボトルネックを最小限に抑えながら、トレーニング中に画像を大規模に読み込む必要があります。何をすべきでしょうか? You are developing an ML model to identify your company’s products in images. You have access to over one million images in a Cloud Storage bucket. You plan to experiment with different TensorFlow models by using Vertex AI Training. You need to read images at scale during training while minimizing data I/O bottlenecks. What should you do?

    Convert the images to TFRecords and store them in a Cloud Storage bucket. Read the TFRecords by using the tf.data.TFRecordDataset function.

  • 50

    (Q#250) あなたはeコマースの新興企業に勤めている。顧客離脱予測モデルを作成する必要があります。あなたの会社の最近の販売記録はBigQueryテーブルに保存されています。あなたは、初期モデルがどのように予測を行うかを理解したい。また、コストを最小限に抑えながら、できるだけ早くモデルを反復したい。最初のモデルはどのように構築すべきでしょうか? You work at an ecommerce startup. You need to create a customer churn prediction model. Your company’s recent sales records are stored in a BigQuery table. You want to understand how your initial model is making predictions. You also want to iterate on the model as quickly as possible while minimizing cost. How should you build your first model?

    Prepare the data in BigQuery and associate the data with a Vertex AI dataset. Create an AutoMLTabularTrainingJob to tram a classification model.