ログイン

PMLE06

PMLE06
50問 • 8ヶ月前
  • ユーザ名非公開
  • 通報

    問題一覧

  • 1

    (Q#251) あなたは、表データに基づく新しいXGBoost分類モデルのトレーニングパイプラインを開発しています。データはBigQueryテーブルに格納されています。以下の手順を完了する必要があります: 1. データを訓練用データセットと評価用データセットに65/35の割合でランダムに分割します。 2. フィーチャーエンジニアリングを行う 3. 評価データセットのメトリクスを取得する 4. 異なるパイプライン実行で学習されたモデルを比較する これらのステップをどのように実行すべきか? You are developing a training pipeline for a new XGBoost classification model based on tabular data. The data is stored in a BigQuery table. You need to complete the following steps: 1. Randomly split the data into training and evaluation datasets in a 65/35 ratio 2. Conduct feature engineering 3. Obtain metrics for the evaluation dataset 4. Compare models trained in different pipeline executions How should you execute these steps?

    1. In BigQuery ML, use the CREATE MODEL statement with BOOSTED_TREE_CLASSIFIER as the model type and use BigQuery to handle the data splits. 2. Use ML TRANSFORM to specify the feature engineering transformations and tram the model using the data in the table. 3. Compare the evaluation metrics of the models by using a SQL query with the ML.TRAINING_INFO statement.

  • 2

    (Q#252) あなたは、世界中の何千もの企業に法人向け電子製品を販売している企業に勤めています。貴社は過去の顧客データをBigQueryに保存しています。今後3年間の顧客生涯価値を予測するモデルを構築する必要があります。モデルの構築には最もシンプルなアプローチを使用し、可視化ツールを利用したいと考えています。どうすればよいでしょうか? You work for a company that sells corporate electronic products to thousands of businesses worldwide. Your company stores historical customer data in BigQuery. You need to build a model that predicts customer lifetime value over the next three years. You want to use the simplest approach to build the model and you want to have access to visualization tools. What should you do?

    Create a Vertex AI Workbench notebook to perform exploratory data analysis. Use IPython magics to create a new BigQuery table with input features, create the model, and validate the results by using the CREATE MODEL, ML.EVALUATE, and ML.PREDICT statements.

  • 3

    (Q#253) あなたは配送会社に勤めています。あなたは、配達された小包やトラックの位置などの特徴を時系列で保存・管理するシステムを設計する必要があります。システムは低レイテンシーで特徴を取得し、それらの特徴をオンライン予測のモデルに投入する必要があります。データ・サイエンス・チームは、モデル・トレーニングのために特定の時点で過去のデータを取得する。最小限の労力で特徴を保存したい。どうするべきか? You work for a delivery company. You need to design a system that stores and manages features such as parcels delivered and truck locations over time. The system must retrieve the features with low latency and feed those features into a model for online prediction. The data science team will retrieve historical data at a specific point in time for model training. You want to store the features with minimal effort. What should you do?

    Store features in Vertex AI Feature Store.

  • 4

    (Q#254) あなたは管理されたVertex AI Workbenchノートブックでテキスト分類モデルのプロトタイプに取り組んでいます。Natural Language Toolkit (NLTK) ライブラリを使用して、テキストをトークン化する実験を素早く行いたいと考えています。どのようにライブラリをJupyterカーネルに追加しますか? You are working on a prototype of a text classification model in a managed Vertex AI Workbench notebook. You want to quickly experiment with tokenizing text by using a Natural Language Toolkit (NLTK) library. How should you add the library to your Jupyter kernel?

    Install the NLTK library from a Jupyter cell by using the !pip install nltk --user command.

  • 5

    (Q#255) あなたは最近、TensorFlowを使って表形式データの分類モデルを学習しました。数テラバイトのデータをTFRecordsで構成されるトレーニングデータセットまたは予測データセットに変換できるDataflowパイプラインを作成しました。あなたは今、モデルをプロダクション化する必要があり、予測値を1週間のスケジュールで自動的にBigQueryテーブルにアップロードする必要があります。どうすればいいでしょうか? You have recently used TensorFlow to train a classification model on tabular data. You have created a Dataflow pipeline that can transform several terabytes of data into training or prediction datasets consisting of TFRecords. You now need to productionize the model, and you want the predictions to be automatically uploaded to a BigQuery table on a weekly schedule. What should you do?

    Import the model into Vertex AI. On Vertex AI Pipelines, create a pipeline that uses the DataflowPythonJobOp and the ModelBatchPredictOp components.

  • 6

    (Q#256) あなたはオンライン食料品店に勤めています。あなたは最近、ユーザーがウェブサイトにアクセスしたときにレシピを推薦するカスタムMLモデルを開発しました。あなたは、モデルが処理できる1秒あたりのクエリ(QPS)を使用してコストを最適化するために、Vertex AIエンドポイントのマシンタイプを選択し、8つのvCPUとアクセラレータを持たない単一のマシンにそれをデプロイしました。 ホリデーシーズンが近づいており、この期間は通常の1日のトラフィックの4倍のトラフィックが予想されます。増加する需要に対してモデルが効率的にスケールできるようにする必要があります。どうすればよいでしょうか? You work for an online grocery store. You recently developed a custom ML model that recommends a recipe when a user arrives at the website. You chose the machine type on the Vertex AI endpoint to optimize costs by using the queries per second (QPS) that the model can serve, and you deployed it on a single machine with 8 vCPUs and no accelerators. A holiday season is approaching and you anticipate four times more traffic during this time than the typical daily traffic. You need to ensure that the model can scale efficiently to the increased demand. What should you do?

    1. Maintain the same machine type on the endpoint Configure the endpoint to enable autoscaling based on vCPU usage. 2. Set up a monitoring job and an alert for CPU usage. 3. If you receive an alert, investigate the cause.

  • 7

    (Q#257) あなたは最近、表データに対してXGBoostモデルを学習させました。あなたはそのモデルをHTTPマイクロサービスとして内部用に公開する予定です。デプロイ後、少数のリクエストが来ることが予想されます。あなたは、最小限の労力と待ち時間でモデルをプロダクション化したいと考えています。何をすべきでしょうか? You recently trained an XGBoost model on tabular data. You plan to expose the model for internal use as an HTTP microservice. After deployment, you expect a small number of incoming requests. You want to productionize the model with the least amount of effort and latency. What should you do?

    Use a prebuilt XGBoost Vertex container to create a model, and deploy it to Vertex AI Endpoints.

  • 8

    (Q#258) あなたは科学製品を世界中に出荷している国際的な製造会社に勤めています。これらの製品の取扱説明書は、15 の異なる言語に翻訳する必要があります。あなたの組織のリーダーシップチームは、機械学習を使用して手作業による翻訳のコストを削減し、翻訳速度を向上させたいと考えています。あなたは、精度を最大化し、運用オーバーヘッドを最小限に抑えるスケーラブルなソリューションを実装する必要があります。また、不正確な翻訳を評価し、修正するプロセスも含める必要があります。どうすればよいでしょうか? You work for an international manufacturing organization that ships scientific products all over the world. Instruction manuals for these products need to be translated to 15 different languages. Your organization’s leadership team wants to start using machine learning to reduce the cost of manual human translations and increase translation speed. You need to implement a scalable solution that maximizes accuracy and minimizes operational overhead. You also want to include a process to evaluate and fix incorrect translations. What should you do?

    Use AutoML Translation to train a model. Configure a Translation Hub project, and use the trained model to translate the documents. Use human reviewers to evaluate the incorrect translations.

  • 9

    (Q#259) あなたは、複数の scikit-learn モデルの連鎖を使用して、自社製品の最適価格を予測するアプリケーションを開発しました。ワークフローのロジックを図に示します。チームのメンバーは、個々のモデルを他のソリューションワークフローで使用します。各モデルとワークフロー全体のバージョン管理を確保しながら、このワークフローを展開したい。アプリケーションは、ゼロまでスケールダウンできる必要があります。このソリューションの管理に必要な計算リソースの使用と手作業を最小限に抑えたい。どうすればよいでしょうか? You have developed an application that uses a chain of multiple scikit-learn models to predict the optimal price for your company’s products. The workflow logic is shown in the diagram. Members of your team use the individual models in other solution workflows. You want to deploy this workflow while ensuring version control for each individual model and the overall workflow. Your application needs to be able to scale down to zero. You want to minimize the compute resource utilization and the manual effort required to manage this solution. What should you do? ┌-> (model A) -> (model B) -┐ (input)--┤ ├-> (model D) -> (Prediction) └-> (model C) -------------┘

    Expose each individual model as an endpoint in Vertex AI Endpoints. Use Cloud Run to orchestrate the workflow.

  • 10

    (Q#260) あなたは、重要な機械部品に故障が発生するかどうかを予測するモデルを開発しています。多変量時系列と機械部品が故障したかどうかを示すラベルからなるデータセットがあります。あなたは最近、Vertex AI Workbenchノートブックで、いくつかの異なる前処理とモデリングアプローチの実験を始めました。データを記録し、各実行のアーチファクトを追跡したいと思います。どのように実験をセットアップしますか? You are developing a model to predict whether a failure will occur in a critical machine part. You have a dataset consisting of a multivariate time series and labels indicating whether the machine part failed. You recently started experimenting with a few different preprocessing and modeling approaches in a Vertex AI Workbench notebook. You want to log data and track artifacts from each run. How should you set up your experiments?

    1. Create a Vertex AI TensorBoard instance, and use the Vertex AI SDK to create an experiment and associate the TensorBoard instance. 2. Use the log_time_series_metrics function to track the preprocessed data, and use the log_metrics function to log loss values.

  • 11

    (Q#261) あなたはオンライン衣料品店のレコメンデーションエンジンを開発しています。過去の顧客取引データはBigQueryとクラウドストレージに保存されています。探索的データ分析(EDA)、前処理、およびモデルのトレーニングを実行する必要があります。これらのEDA、前処理、トレーニングのステップは、さまざまなタイプのアルゴリズムを試しながら再実行する予定です。実験に伴ってこれらのステップを実行するコストと開発工数を最小限に抑えたい。どのように環境を構成すればよいでしょうか? You are developing a recommendation engine for an online clothing store. The historical customer transaction data is stored in BigQuery and Cloud Storage. You need to perform exploratory data analysis (EDA), preprocessing and model training. You plan to rerun these EDA, preprocessing, and training steps as you experiment with different types of algorithms. You want to minimize the cost and development effort of running these steps as you experiment. How should you configure the environment?

    Create a Vertex AI Workbench managed notebook to browse and query the tables directly from the JupyterLab interface.

  • 12

    (Q#262) 最近、モデルを Vertex AI エンドポイントにデプロイし、Vertex AI Feature Store でオンライン サービングを設定しました。フィーチャーストアを更新するために、毎日バッチ取り込みジョブを構成しました。バッチ取り込みジョブの実行中に、フィーチャーストアのオンラインサービングノードのCPU使用率が高く、フィーチャー検索レイテンシが高いことが判明しました。毎日のバッチ取り込み中に、オンラインサービスのパフォーマンスを改善する必要があります。どうすればよいでしょうか。 You recently deployed a model to a Vertex AI endpoint and set up online serving in Vertex AI Feature Store. You have configured a daily batch ingestion job to update your featurestore. During the batch ingestion jobs, you discover that CPU utilization is high in your featurestore’s online serving nodes and that feature retrieval latency is high. You need to improve online serving performance during the daily batch ingestion. What should you do?

    Schedule an increase in the number of online serving nodes in your featurestore prior to the batch ingestion jobs

  • 13

    (Q#263) あなたは、表データに基づくカスタムTensorFlow分類モデルを開発しています。生データはBigQueryに格納されており、数億行を含み、カテゴリフィーチャと数値フィーチャの両方が含まれています。数値特徴にはMaxMinスケーラーを使用し、SKU名などのカテゴリ特徴にはワンホットエンコーディングを適用する必要があります。モデルは複数のエポックにわたって学習される。ソリューションの労力とコストを最小化したい。どうすればいいでしょうか? You are developing a custom TensorFlow classification model based on tabular data. Your raw data is stored in BigQuery. contains hundreds of millions of rows, and includes both categorical and numerical features. You need to use a MaxMin scaler on some numerical features, and apply a one-hot encoding to some categorical features such as SKU names. Your model will be trained over multiple epochs. You want to minimize the effort and cost of your solution. What should you do?

    1. Use TFX components with Dataflow to encode the text features and scale the numerical features. 2. Export results to Cloud Storage as TFRecords. 3. Feed the data into Vertex AI Training.

  • 14

    (Q#264) あなたは小売企業に勤めている。あなたは、各顧客の解約確率を決定するモデルの構築を任されています。予測結果は、リスクのある顧客をターゲットにしたマーケティング・キャンペーンの開発に使用できるよう、解釈可能である必要があります。あなたは何をすべきでしょうか? You work for a retail company. You have been tasked with building a model to determine the probability of churn for each customer. You need the predictions to be interpretable so the results can be used to develop marketing campaigns that target at-risk customers. What should you do?

    Build a random forest classification model in a Vertex AI Workbench notebook instance. Configure the model to generate feature importances after the model is trained.

  • 15

    (Q#265) あなたは、ユーザーの食事計画を支援するアプリケーションを開発している会社に勤めている。あなたは機械学習を使ってレシピのコーパスをスキャンし、言及された各食材(例えば、ニンジン、米、パスタ)と各キッチン調理器具(例えば、ボウル、鍋、スプーン)を抽出したい。各レシピは構造化されていないテキストファイルに保存されています。どうすればいいでしょうか? You work for a company that is developing an application to help users with meal planning. You want to use machine learning to scan a corpus of recipes and extract each ingredient (e.g., carrot, rice, pasta) and each kitchen cookware (e.g., bowl, pot, spoon) mentioned. Each recipe is saved in an unstructured text file. What should you do?

    Create a text dataset on Vertex AI for entity extraction Create two entities called “ingredient” and “cookware”, and label at least 200 examples of each entity. Train an AutoML entity extraction model to extract occurrences of these entity types. Evaluate performance on a holdout dataset.

  • 16

    (Q#266) あなたは、ストリーミング音楽サービスを運営する組織で働いています。あなたは、ユーザーの最近のリスニング履歴に基づいて「次の曲」を推薦するカスタム制作モデルを持っています。あなたのモデルはVertex AIエンドポイントにデプロイされています。最近、新しいデータを使用して同じモデルを再トレーニングしました。モデルはオフラインで肯定的なテスト結果を得ました。あなたは今、複雑さを最小限に抑えながら、本番環境で新しいモデルをテストしたいと考えています。どうすればよいでしょうか? You work for an organization that operates a streaming music service. You have a custom production model that is serving a “next song” recommendation based on a user's recent listening history. Your model is deployed on a Vertex AI endpoint. You recently retrained the same model by using fresh data. The model received positive test results offline. You now want to test the new model in production while minimizing complexity. What should you do?

    Deploy the new model to the existing Vertex AI endpoint. Use traffic splitting to send 5% of production traffic to the new model. Monitor end-user metrics, such as listening time. If end-user metrics improve between models over time, gradually increase the percentage of production traffic sent to the new model.

  • 17

    (Q#267) あなたはBigQuery MLを使用して線形回帰を実行するモデルを作成しました。毎週収集した累積データでモデルを再学習する必要があります。あなたは開発工数とスケジューリングコストを最小化したいと考えています。どうすればよいでしょうか? You created a model that uses BigQuery ML to perform linear regression. You need to retrain the model on the cumulative data collected every week. You want to minimize the development effort and the scheduling cost. What should you do?

    Use BigQuery’s scheduling service to run the model retraining query periodically.

  • 18

    (Q#268) scikit-learnの分類器モデルをTensorFlowに移行したい。scikit-learnモデルの学習に使用したのと同じ学習セットを使用してTensorFlow分類器モデルを学習し、共通のテストセットを使用して性能を比較する予定です。Vertex AI Python SDKを使用して、各モデルの評価メトリクスを手動でログに記録し、F1スコアと混同行列に基づいて比較したいとします。メトリクスはどのように記録すればよいでしょうか? You want to migrate a scikit-learn classifier model to TensorFlow. You plan to train the TensorFlow classifier model using the same training set that was used to train the scikit-learn model, and then compare the performances using a common test set. You want to use the Vertex AI Python SDK to manually log the evaluation metrics of each model and compare them based on their F1 scores and confusion matrices. How should you log the metrics?

    Use the aiplatform.log_classification_metrics function to log the F1 score and the confusion matrix.

  • 19

    (Q#269) あなたは、よりターゲットを絞ったオンライン広告キャンペーンを行うためのモデルを開発しています。モデルの学習に使用するデータセットを作成する必要があります。モデルに不公平なバイアスが生じたり、強化されたりするのを避けたい。あなたは何をすべきでしょうか?(2つ選んでください) You are developing a model to help your company create more targeted online advertising campaigns. You need to create a dataset that you will use to train the model. You want to avoid creating or reinforcing unfair bias in the model. What should you do? (Choose two.)

    本番トラフィックの層化抽出サンプルを収集してトレーニングデータセットを構築する Collect a stratified sample of production traffic to build the training dataset, トレーニング済みモデルに対して、機密性の高いカテゴリおよびデモグラフィック全体で公平性テストを実施する Conduct fairness tests across sensitive categories and demographics on the trained model

  • 20

    (Q#270) あなたはVertex AI WorkbenchノートブックでMLモデルを開発しています。異なるアプローチを使用した実験中に成果物を追跡し、モデルを比較したい。モデルの実装を繰り返しながら、成功した実験を迅速かつ容易に本番環境に移行する必要があります。どうすればよいでしょうか? You are developing an ML model in a Vertex AI Workbench notebook. You want to track artifacts and compare models during experimentation using different approaches. You need to rapidly and easily transition successful experiments to production as you iterate on your model implementation. What should you do?

    1. Initialize the Vertex SDK with the name of your experiment. Log parameters and metrics for each experiment, and attach dataset and model artifacts as inputs and outputs to each execution. 2. After a successful experiment create a Vertex AI pipeline.

  • 21

    (Q#271) 最近、新しい Google Cloud プロジェクトを作成しました。クラウド シェルから Vertex AI Pipeline ジョブを送信できることをテストした後、Vertex AI Workbench ユーザー管理ノートブック インスタンスを使用して、そのインスタンスからコードを実行したいと思います。インスタンスを作成してコードを実行しましたが、今度はジョブが権限不足エラーで失敗しました。どうすればよいでしょうか? You recently created a new Google Cloud project. After testing that you can submit a Vertex AI Pipeline job from the Cloud Shell, you want to use a Vertex AI Workbench user-managed notebook instance to run your code from that instance. You created the instance and ran the code but this time the job fails with an insufficient permissions error. What should you do?

    Ensure that the Vertex AI Workbench instance is assigned the Identity and Access Management (IAM) Vertex AI User role.

  • 22

    (Q#272) あなたは半導体製造会社に勤めています。品質管理プロセスを自動化するリアルタイム・アプリケーションを作成する必要があります。各半導体の高解像度画像は、組立ラインの最後にリアルタイムで撮影されます。写真は、各半導体のバッチ番号、シリアル番号、寸法、重量を含む表データとともに、クラウドストレージのバケットにアップロードされます。モデルの精度を最大化しながら、モデルのトレーニングとサービングを構成する必要があります。どうすればよいでしょうか? You work for a semiconductor manufacturing company. You need to create a real-time application that automates the quality control process. High-definition images of each semiconductor are taken at the end of the assembly line in real time. The photos are uploaded to a Cloud Storage bucket along with tabular data that includes each semiconductor’s batch number, serial number, dimensions, and weight. You need to configure model training and serving while maximizing model accuracy. What should you do?

    Use Vertex AI Data Labeling Service to label the images, and tram an AutoML image classification model. Deploy the model, and configure Pub/Sub to publish a message when an image is categorized into the failing class.

  • 23

    (Q#273) あなたは急成長中のソーシャルメディア企業に勤めています。あなたのチームは、オンプレミスのCPUクラスタでTensorFlowレコメンダーモデルを構築しています。データには、数十億の過去のユーザーイベントと10万のカテゴリ特徴が含まれています。データが増えるにつれて、モデルのトレーニング時間が長くなることに気づきました。Google Cloudにモデルを移行する予定です。最もスケーラブルでトレーニング時間を最小化できるアプローチを使用したい。どうすればよいでしょうか? You work for a rapidly growing social media company. Your team builds TensorFlow recommender models in an on-premises CPU cluster. The data contains billions of historical user events and 100,000 categorical features. You notice that as the data increases, the model training time increases. You plan to move the models to Google Cloud. You want to use the most scalable approach that also minimizes training time. What should you do?

    Deploy the training jobs by using TPU VMs with TPUv3 Pod slices, and use the TPUEmbeading API

  • 24

    (Q#274) Vertex AI Pipelines、Vertex AI Training、Vertex AI Experiments、および Vertex AI Endpoints を使用して、表データを使用した回帰モデルの更新バージョンをトレーニングおよびデプロイしています。モデルは Vertex AI エンドポイントに配備され、ユーザーは Vertex AI エンドポイントを使用してモデルを呼び出します。特徴データの分布が大幅に変更されたときに電子メールを受信したいので、トレーニング パイプラインを再トリガーして、モデルの更新バージョンを展開できます。どうすればよいでしょうか? You are training and deploying updated versions of a regression model with tabular data by using Vertex AI Pipelines, Vertex AI Training, Vertex AI Experiments, and Vertex AI Endpoints. The model is deployed in a Vertex AI endpoint, and your users call the model by using the Vertex AI endpoint. You want to receive an email when the feature data distribution changes significantly, so you can retrigger the training pipeline and deploy an updated version of your model. What should you do?

    Use Vertex Al Model Monitoring. Enable prediction drift monitoring on the endpoint, and specify a notification email.

  • 25

    (Q#275) あなたは、オンライン予測のためにVertex AI上に配置する予定のXGBoostモデルをトレーニングしました。モデルをVertex AI Model Registryにアップロードし、オンライン予測要求を最小の待ち時間で返す説明メソッドを設定する必要があります。また、モデルの特徴属性が時間の経過とともに有意に変化した場合にアラートを出したいと考えています。どうすればよいでしょうか? You have trained an XGBoost model that you plan to deploy on Vertex AI for online prediction. You are now uploading your model to Vertex AI Model Registry, and you need to configure the explanation method that will serve online prediction requests to be returned with minimal latency. You also want to be alerted when feature attributions of the model meaningfully change over time. What should you do?

    1. Specify sampled Shapley as the explanation method with a path count of 5. 2. Deploy the model to Vertex AI Endpoints. 3. Create a Model Monitoring job that uses prediction drift as the monitoring objective.

  • 26

    (Q#276) あなたは、クラウド・ストレージに数テラバイトの構造化データを持つゲーム新興企業に勤めている。このデータには、ゲームプレイ時間データ、ユーザーメタデータ、ゲームメタデータが含まれます。あなたは、ユーザーに新しいゲームを推薦するモデルを、最小限のコーディングで構築したいと考えています。何をすべきでしょうか? You work at a gaming startup that has several terabytes of structured data in Cloud Storage. This data includes gameplay time data, user metadata, and game metadata. You want to build a model that recommends new games to users that requires the least amount of coding. What should you do?

    Load the data in BigQuery. Use BigQuery ML to train a matrix factorization model.

  • 27

    (Q#277) あなたは、米国とシンガポールで稼働しているGoogle Cloudでホストされたアプリケーションを通じて顧客にサービスを提供している大手銀行に勤めています。あなたは、トランザクションを不正の可能性があるかどうか分類する PyTorch モデルを開発しました。モデルは 3 層パーセプトロンで、入力として数値とカテゴリカルの両方の特徴を使用し、モデル内でハッシュが行われます。 このモデルは nl-highcpu-16 のマシンで us-central1 地域にデプロイされ、予測はリアルタイムで提供される。モデルの現在の中央応答レイテンシは40ミリ秒です。待ち時間を短縮したい、特にシンガポールで待ち時間が最も長くなっています。何をすべきでしょうか? You work for a large bank that serves customers through an application hosted in Google Cloud that is running in the US and Singapore. You have developed a PyTorch model to classify transactions as potentially fraudulent or not. The model is a three-layer perceptron that uses both numerical and categorical features as input, and hashing happens within the model. You deployed the model to the us-central1 region on nl-highcpu-16 machines, and predictions are served in real time. The model's current median response latency is 40 ms. You want to reduce latency, especially in Singapore, where some customers are experiencing the longest delays. What should you do?

    Create another Vertex AI endpoint in the asia-southeast1 region, and allow the application to choose the appropriate endpoint.

  • 28

    (Q#278) 小さなデータセットでXGBoostモデルを学習する必要があります。学習コードにはカスタム依存関係が必要です。トレーニングジョブの起動時間を最小限に抑えたい。Vertex AIカスタムトレーニングジョブをどのように設定しますか? You need to train an XGBoost model on a small dataset. Your training code requires custom dependencies. You want to minimize the startup time of your training job. How should you set up your Vertex AI custom training job?

    Store the data in a Cloud Storage bucket, and create a custom container with your training application. In your training application, read the data from Cloud Storage and train the model.

  • 29

    (Q#279) データ処理、モデルのトレーニング、モデルのデプロイのためのMLパイプラインを作成しています。各タスクのコードを開発し、新しいファイルを頻繁に作成することを想定しています。これらのタスクの上にオーケストレーションレイヤーを作成する必要があります。このオーケストレーション・パイプラインは、Cloud Storageバケット内のデータセットに新しいファイルが存在する場合にのみ実行したい。また、コンピュート・ノードのコストも最小限にしたい。どうすればいいでしょうか? You are creating an ML pipeline for data processing, model training, and model deployment that uses different Google Cloud services. You have developed code for each individual task, and you expect a high frequency of new files. You now need to create an orchestration layer on top of these tasks. You only want this orchestration pipeline to run if new files are present in your dataset in a Cloud Storage bucket. You also want to minimize the compute node costs. What should you do?

    Create a pipeline in Vertex AI Pipelines. Create a Cloud Function that uses a Cloud Storage trigger and deploys the pipeline.

  • 30

    (Q#280) あなたはKubeflow Pipelinesを使用して、エンドツーエンドのPyTorchベースのMLOpsパイプラインを開発しています。パイプラインはBigQueryからデータを読み込み、データを処理し、フィーチャーエンジニアリング、モデルトレーニング、モデル評価を行い、モデルをバイナリファイルとしてクラウドストレージにデプロイします。あなたは、フィーチャーエンジニアリングとモデルトレーニングステップの複数の異なるバージョンのコードを書き、Vertex AI Pipelinesでそれぞれの新しいバージョンを実行しています。各パイプラインの実行には1時間以上かかっています。パイプラインの実行を高速化して開発時間を短縮し、追加コストを回避したい。どうすればよいでしょうか? You are using Kubeflow Pipelines to develop an end-to-end PyTorch-based MLOps pipeline. The pipeline reads data from BigQuery, processes the data, conducts feature engineering, model training, model evaluation, and deploys the model as a binary file to Cloud Storage. You are writing code for several different versions of the feature engineering and model training steps, and running each new version in Vertex AI Pipelines. Each pipeline run is taking over an hour to complete. You want to speed up the pipeline execution to reduce your development time, and you want to avoid additional costs. What should you do?

    Enable caching in all the steps of the Kubeflow pipeline.

  • 31

    (Q#281) あなたは、最近MLとデータのワークロードをGoogle Cloudに移行することを決めた大企業で働いている。データエンジニアリングチームは、構造化データをAvro形式でCloud Storageバケットにエクスポートしました。あなたは、分析を実行し、特徴を作成し、MLモデルがオンライン予測に使用する特徴をホストするワークフローを提案する必要があります。どのようにパイプラインを構成しますか? You work at a large organization that recently decided to move their ML and data workloads to Google Cloud. The data engineering team has exported the structured data to a Cloud Storage bucket in Avro format. You need to propose a workflow that performs analytics, creates features, and hosts the features that your ML models use for online prediction. How should you configure the pipeline?

    Ingest the Avro files into BigQuery to perform analytics. Use a Dataflow pipeline to create the features, and store them in Vertex AI Feature Store for online prediction.

  • 32

    (Q#282) あなたは、従来のチャット、音声、ビデオ会議を1つのプラットフォームに統合したクラウドベースのコミュニケーション・プラットフォームを管理する組織で働いています。音声録音はクラウドストレージに保存されています。すべての録音はサンプルレートが8kHzで、1分以上の長さがあります。あなたは、通話要約や感情分析などの将来のアプリケーションのために、音声通話録音を自動的にテキストに書き起こす新機能をプラットフォームに実装する必要があります。Googleが推奨するベストプラクティスに従って、音声通話の書き起こし機能をどのように実装すればよいでしょうか? You work at an organization that maintains a cloud-based communication platform that integrates conventional chat, voice, and video conferencing into one platform. The audio recordings are stored in Cloud Storage. All recordings have an 8 kHz sample rate and are more than one minute long. You need to implement a new feature in the platform that will automatically transcribe voice call recordings into a text for future applications, such as call summarization and sentiment analysis. How should you implement the voice call transcription feature following Google-recommended best practices?

    Use the original audio sampling rate, and transcribe the audio by using the Speech-to-Text API with asynchronous recognition.

  • 33

    (Q#283) あなたは、最近スペインで業務を開始した多国籍企業に勤めています。組織内の各チームは、ビジネス、法務、財務など、さまざまなスペイン語の文書を扱う必要があります。あなたは、機械学習を使用して、正確な翻訳を迅速かつ最小限の労力で行えるようにしたいと考えています。あなたの組織は、ドメイン固有の用語や専門用語を必要としません。どうすればよいでしょうか? You work for a multinational organization that has recently begun operations in Spain. Teams within your organization will need to work with various Spanish documents, such as business, legal, and financial documents. You want to use machine learning to help your organization get accurate translations quickly and with the least effort. Your organization does not require domain-specific terms or jargon. What should you do?

    Use the Document Translation feature of the Cloud Translation API to translate the documents.

  • 34

    (Q#284) Vertex AIで毎週実行されるカスタムジョブがあります。このジョブは、データセット、モデル、カスタム成果物を作成し、クラウドストレージバケットに送信する独自のMLワークフローを使用して実装されています。データセットとモデルの多くの異なるバージョンが作成されました。コンプライアンス要件により、貴社は特定の予測を行うためにどのモデルが使用されたかを追跡する必要があり、各モデルの成果物にアクセスする必要があります。これらの要件を満たすために、ワークフローをどのように構成すべきでしょうか? You have a custom job that runs on Vertex AI on a weekly basis. The job is implemented using a proprietary ML workflow that produces the datasets, models, and custom artifacts, and sends them to a Cloud Storage bucket. Many different versions of the datasets and models were created. Due to compliance requirements, your company needs to track which model was used for making a particular prediction, and needs access to the artifacts for each model. How should you configure your workflows to meet these requirements?

    Use the Vertex AI Metadata API inside the custom job to create context, execution, and artifacts for each model, and use events to link them together.

  • 35

    (Q#285) あなたは最近、ニューラルネットワークを使用した画像分類のカスタムモデルを開発しました。学習率、層数、カーネルサイズの値を自動的に特定する必要があります。そのためには、複数のジョブを並行して実行し、パフォーマンスを最適化するパラメータを特定する必要があります。カスタムコードの開発とインフラ管理を最小限に抑えたい。どうすればよいでしょうか? You have recently developed a custom model for image classification by using a neural network. You need to automatically identify the values for learning rate, number of layers, and kernel size. To do this, you plan to run multiple jobs in parallel to identify the parameters that optimize performance. You want to minimize custom code development and infrastructure management. What should you do?

    Create a Vertex AI hyperparameter tuning job.

  • 36

    (Q#286) あなたは世界中の都市に橋を建設する会社に勤めている。建設現場でのプロジェクトの進捗を追跡するために、あなたの会社は各場所にカメラを設置しました。毎時間、カメラは写真を撮り、クラウドストレージのバケットに送信する。専門家のチームが画像をレビューし、重要な画像をフィルタリングし、画像内の特定のオブジェクトに注釈を付ける。あなたは、会社のスケールアップとコスト削減に役立つMLソリューションの使用を提案したい。ソリューションの初期費用は最小限に抑える必要があります。どのような方法を提案すべきでしょうか? You work for a company that builds bridges for cities around the world. To track the progress of projects at the construction sites, your company has set up cameras at each location. Each hour, the cameras take a picture that is sent to a Cloud Storage bucket. A team of specialists reviews the images, filters important ones, and then annotates specific objects in them. You want to propose using an ML solution that will help the company scale and reduce costs. You need the solution to have minimal up-front cost. What method should you propose?

    Use the Cloud Vision API to automatically annotate objects in the images to help specialists with the annotation task.

  • 37

    (Q#287) あなたには、本番環境でツリーベースのモデルを再トレーニングするためのMLOpsパイプラインを構築するタスクが与えられています。パイプラインには、データの取り込み、データ処理、モデルのトレーニング、モデルの評価、モデルのデプロイに関連するコンポーネントが含まれます。あなたの組織では、データの前処理に主にPySparkベースのワークロードを使用しています。インフラ管理の労力を最小限に抑えたい。どのようにパイプラインをセットアップすべきでしょうか? You are tasked with building an MLOps pipeline to retrain tree-based models in production. The pipeline will include components related to data ingestion, data processing, model training, model evaluation, and model deployment. Your organization primarily uses PySpark-based workloads for data preprocessing. You want to minimize infrastructure management effort. How should you set up the pipeline?

    Set up a Vertex AI Pipelines to orchestrate the MLOps pipeline. Use the predefined Dataproc component for the PySpark-based workloads.

  • 38

    (Q#288) あなたは、組織の Web サイトを利用する価値の高い顧客を識別する AutoML 表形式分類モデルを開発しました。このモデルを、Web サイトアプリケーションと統合する新しい Vertex AI エンドポイントに展開する予定です。夜間と週末にウェブサイトへのトラフィックが増加することが予想されます。遅延とコストを最小限に抑えるために、モデルのエンドポイントの展開設定を構成する必要があります。どうすればよいでしょうか。 You have developed an AutoML tabular classification model that identifies high-value customers who interact with your organization's website. You plan to deploy the model to a new Vertex AI endpoint that will integrate with your website application. You expect higher traffic to the website during nights and weekends. You need to configure the model endpoint's deployment settings to minimize latency and cost. What should you do?

    Configure the model deployment settings to use an n1-standard-4 machine type. Set the minReplicaCount value to 1 and the maxReplicaCount value to 8.

  • 39

    (Q#289) あなたは、BigQueryテーブルに格納されたトレーニングデータセットを使用して、BigQuery ML線形回帰モデルを開発しました。テーブルには1分ごとに新しいデータが追加されます。Cloud SchedulerとVertex AI Pipelinesを使用して、毎時のモデル学習を自動化し、モデルを直接推論に使用しています。特徴の前処理ロジックには、直近1時間に受信したデータの分位バケツ化とMinMaxスケーリングが含まれます。ストレージと計算のオーバーヘッドを最小限に抑えたい。どうすればよいでしょうか? You developed a BigQuery ML linear regressor model by using a training dataset stored in a BigQuery table. New data is added to the table every minute. You are using Cloud Scheduler and Vertex AI Pipelines to automate hourly model training, and use the model for direct inference. The feature preprocessing logic includes quantile bucketization and MinMax scaling on data received in the last hour. You want to minimize storage and computational overhead. What should you do?

    Use the TRANSFORM clause in the CREATE MODEL statement in the SQL query to calculate the required statistics.

  • 40

    (Q#290) あなたは、回帰モデルをトレーニングするためにKerasを使用してPythonモジュールを開発しました。同じモジュール内で、線形回帰とディープニューラルネットワーク(DNN)という2つのモデルアーキテクチャを開発しました。training_method引数を使用して2つの方法のうち1つを選択し、DNNでlearning_rate引数とnum_hidden_layers引数を使用しています。Vertex AIのハイパーチューニング・サービスを、100回の試行を行う予算で利用する予定です。学習損失を最小化し、モデルの性能を最大化するモデル・アーキテクチャとハイパーパラメータ値を特定したいとします。どうすればよいでしょうか? You developed a Python module by using Keras to train a regression model. You developed two model architectures, linear regression and deep neural network (DNN), within the same module. You are using the training_method argument to select one of the two methods, and you are using the learning_rate and num_hidden_layers arguments in the DNN. You plan to use Vertex AI's hypertuning service with a budget to perform 100 trials. You want to identify the model architecture and hyperparameter values that minimize training loss and maximize model performance. What should you do?

    Run one hypertuning job for 100 trials. Set num_hidden_layers and learning_rate as conditional hyperparameters based on their parent hyperparameter training_method.

  • 41

    (Q#291) あなたは病院に勤務しています。必要な患者データを収集する承認を受け、患者の入院リスクスコアを計算するVertex AI表形式AutoMLモデルをトレーニングしました。あなたはそのモデルを配備しました。しかし、患者の属性が時間の経過とともに変化し、特徴の相互作用が変化して予測精度に影響することを懸念しています。あなたは、特徴の相互作用が変化した場合にアラートを出したいですし、予測に対する特徴の重要性を理解したいです。アラートアプローチはコストを最小限に抑えたい。どうすればいいでしょうか? You work for a hospital. You received approval to collect the necessary patient data, and you trained a Vertex AI tabular AutoML model that calculates patients' risk score for hospital admission. You deployed the model. However, you're concerned that patient demographics might change over time and alter the feature interactions and impact prediction accuracy. You want to be alerted if feature interactions change, and you want to understand the importance of the features for the predictions. You want your alerting approach to minimize cost. What should you do?

    Create a feature attribution drift monitoring job. Set the sampling rate to 0.1 and the monitoring frequency to weekly.

  • 42

    (Q#292) 標準的な TFX コンポーネントを使用して、TensorFlow Extended (TFX) パイプラインを開発しています。パイプラインには、データの前処理ステップが含まれています。パイプラインが本番環境にデプロイされると、BigQueryに格納された最大100TBのデータを処理することになります。効率的にスケールし、メトリクスとパラメータを Vertex AI Experiments に公開し、Vertex ML Metadata を使用して成果物を追跡するには、データ前処理ステップが必要です。パイプラインの実行はどのように構成すればよいでしょうか? You are developing a TensorFlow Extended (TFX) pipeline with standard TFX components. The pipeline includes data preprocessing steps. After the pipeline is deployed to production, it will process up to 100 TB of data stored in BigQuery. You need the data preprocessing steps to scale efficiently, publish metrics and parameters to Vertex AI Experiments, and track artifacts by using Vertex ML Metadata. How should you configure the pipeline run?

    Run the TFX pipeline in Vertex AI Pipelines. Set the appropriate Apache Beam parameters in the pipeline to run the data preprocessing steps in Dataflow.

  • 43

    (Q#293) カスタムモデルをトレーニングし、予測を実行するバッチプロセスを開発しています。モデルとバッチ予測の両方の系統を表示できるようにする必要があります。どうすればよいでしょうか? You are developing a batch process that will train a custom model and perform predictions. You need to be able to show lineage for both your model and the batch predictions. What should you do?

    1. Use a Vertex AI Pipelines custom training job component to train your model. 2. Generate predictions by using a Vertex AI Pipelines model batch predict component.

  • 44

    (Q#294) あなたは、世界中の何千もの企業に法人向け電子製品を販売している企業に勤めています。貴社は過去の顧客データをBigQueryに保存しています。今後3年間の顧客生涯価値を予測するモデルを構築する必要があります。モデルの構築には最も単純なアプローチを使用したいとします。どうすればよいでしょうか? You work for a company that sells corporate electronic products to thousands of businesses worldwide. Your company stores historical customer data in BigQuery. You need to build a model that predicts customer lifetime value over the next three years. You want to use the simplest approach to build the model. What should you do?

    Access BigQuery Studio in the Google Cloud console. Run the CREATE MODEL statement in the SQL editor to create an AutoML regression model.

  • 45

    (Q#295) あなたは小売企業に勤めており、商品の売上を予測するMLモデルの開発を任されています。あなたの会社の過去の販売データはBigQueryに保存されており、日付、店舗の場所、商品カテゴリ、プロモーションの詳細などの特徴が含まれています。予測精度を最大化するために、BigQuery MLモデルと特徴工学の最も効果的な組み合わせを選択する必要があります。何をすべきでしょうか? You work at a retail company, and are tasked with developing an ML model to predict product sales. Your company’s historical sales data is stored in BigQuery and includes features such as date, store location, product category, and promotion details. You need to choose the most effective combination of a BigQuery ML model and feature engineering to maximize prediction accuracy. What should you do?

    Use a linear regression model. Perform one-hot encoding on categorical features, and create additional features based on the date, such as day of the week or month.

  • 46

    (Q#296) あなたの組織の従業員オンボーディングチームは、新入社員のための対話型セルフヘルプツールを構築することを望んでいます。このツールは、ユーザーからの問い合わせを受け取り、組織の内部文書から回答を提供する必要があります。このドキュメントは、PDFファイルなどのスタンドアロンドキュメントにまたがっています。あなたは、メンテナンスのオーバーヘッドを最小限に抑えながら、迅速にソリューションを構築したいと考えています。どうすればよいでしょうか? Your organization’s employee onboarding team wants you to build an interactive self-help tool for new employees. The tool needs to receive queries from users and provide answers from the organization’s internal documentation. This documentation is spread across standalone documents such as PDF files. You want to build a solution quickly while minimizing maintenance overhead. What should you do?

    Use Vertex AI Agent Builder to create an agent. Securely index the organization’s internal documentation to the agent’s datastore. Send users’ queries to the agent and return the agent’s grounded responses to the users.

  • 47

    (Q#297) あなたは、ユーザー体験を向上させるために画像内の商品を自動的に分類したいと考えているeコマース企業に勤めています。あなたは、様々なユニークな商品を描いたラベル付き画像の膨大なデータセットを持っています。あなたは、拡張性があり、効果的で、迅速に展開できるカスタム商品を識別するソリューションを実装する必要があります。どうすればよいでしょうか? You work for an ecommerce company that wants to automatically classify products in images to improve user experience. You have a substantial dataset of labeled images depicting various unique products. You need to implement a solution for identifying custom products that is scalable, effective, and can be rapidly deployed. What should you do?

    Use AutoML Vision to train a model using the image dataset.

  • 48

    (Q#298) あなたのチームは、機密性の高い患者情報を処理するヘルスケア企業の顧客サポートチャットボットを開発しています。データを保存または分析する前に、顧客との会話中に取得した個人を特定できる情報(PII)がすべて保護されていることを確認する必要があります。あなたは何をすべきでしょうか? Your team is developing a customer support chatbot for a healthcare company that processes sensitive patient information. You need to ensure that all personally identifiable information (PII) captured during customer conversations is protected prior to storing or analyzing the data. What should you do?

    Use the DLP API to scan and de-identify PII in chatbot conversations before storing the data.

  • 49

    (Q#299) あなたのチームは、特定のドメインに対して、より小さな、抽出されたLLMを開発する実験を行っている。抽出したLLMのいくつかのバリエーションを使用してデータセットに対してバッチ推論を実行し、バッチ推論出力をクラウドストレージに保存しました。既存のVertex AIパイプラインと統合する評価ワークフローを作成し、アーティファクトを追跡しながらLLMバージョンのパフォーマンスを評価する必要があります。どうすればよいでしょうか? Your team is experimenting with developing smaller, distilled LLMs for a specific domain. You have performed batch inference on a dataset by using several variations of your distilled LLMs and stored the batch inference outputs in Cloud Storage. You need to create an evaluation workflow that integrates with your existing Vertex AI pipeline to assess the performance of the LLM versions while also tracking artifacts. What should you do?

    Create a custom Vertex AI Pipelines component that reads the batch inference outputs from Cloud Storage, calculates evaluation metrics, and writes the results to a BigQuery table.

  • 50

    (Q#300) あなたは銀行に勤めている。クラウドストレージに保存されている非構造化データを使用して、クレジットカード取引が不正かどうかを予測するモデルをトレーニングする必要があります。BigQueryでの分析を容易にするために、データを構造化フォーマットに変換する必要があります。会社のポリシーでは、個人を特定できる情報(PII)を含むデータをクラウドストレージに残す必要があります。分析に必要なデータの価値を維持したまま、スケーラブルなソリューションを実装する必要があります。どうすればよいでしょうか。 You work for a bank. You need to train a model by using unstructured data stored in Cloud Storage that predicts whether credit card transactions are fraudulent. The data needs to be converted to a structured format to facilitate analysis in BigQuery. Company policy requires that data containing personally identifiable information (PII) remain in Cloud Storage. You need to implement a scalable solution that preserves the data’s value for analysis. What should you do?

    Use the DLP API to de-identify the sensitive data before loading it into BigQuery.

  • PDE_page4

    PDE_page4

    ユーザ名非公開 · 50問 · 1年前

    PDE_page4

    PDE_page4

    50問 • 1年前
    ユーザ名非公開

    PDE_page5

    PDE_page5

    ユーザ名非公開 · 50問 · 1年前

    PDE_page5

    PDE_page5

    50問 • 1年前
    ユーザ名非公開

    PDE_page6

    PDE_page6

    ユーザ名非公開 · 50問 · 1年前

    PDE_page6

    PDE_page6

    50問 • 1年前
    ユーザ名非公開

    PDE_page7

    PDE_page7

    ユーザ名非公開 · 19問 · 1年前

    PDE_page7

    PDE_page7

    19問 • 1年前
    ユーザ名非公開

    PMLE04

    PMLE04

    ユーザ名非公開 · 50問 · 8ヶ月前

    PMLE04

    PMLE04

    50問 • 8ヶ月前
    ユーザ名非公開

    PMLE05

    PMLE05

    ユーザ名非公開 · 50問 · 8ヶ月前

    PMLE05

    PMLE05

    50問 • 8ヶ月前
    ユーザ名非公開

    PMLE07

    PMLE07

    ユーザ名非公開 · 39問 · 8ヶ月前

    PMLE07

    PMLE07

    39問 • 8ヶ月前
    ユーザ名非公開

    問題一覧

  • 1

    (Q#251) あなたは、表データに基づく新しいXGBoost分類モデルのトレーニングパイプラインを開発しています。データはBigQueryテーブルに格納されています。以下の手順を完了する必要があります: 1. データを訓練用データセットと評価用データセットに65/35の割合でランダムに分割します。 2. フィーチャーエンジニアリングを行う 3. 評価データセットのメトリクスを取得する 4. 異なるパイプライン実行で学習されたモデルを比較する これらのステップをどのように実行すべきか? You are developing a training pipeline for a new XGBoost classification model based on tabular data. The data is stored in a BigQuery table. You need to complete the following steps: 1. Randomly split the data into training and evaluation datasets in a 65/35 ratio 2. Conduct feature engineering 3. Obtain metrics for the evaluation dataset 4. Compare models trained in different pipeline executions How should you execute these steps?

    1. In BigQuery ML, use the CREATE MODEL statement with BOOSTED_TREE_CLASSIFIER as the model type and use BigQuery to handle the data splits. 2. Use ML TRANSFORM to specify the feature engineering transformations and tram the model using the data in the table. 3. Compare the evaluation metrics of the models by using a SQL query with the ML.TRAINING_INFO statement.

  • 2

    (Q#252) あなたは、世界中の何千もの企業に法人向け電子製品を販売している企業に勤めています。貴社は過去の顧客データをBigQueryに保存しています。今後3年間の顧客生涯価値を予測するモデルを構築する必要があります。モデルの構築には最もシンプルなアプローチを使用し、可視化ツールを利用したいと考えています。どうすればよいでしょうか? You work for a company that sells corporate electronic products to thousands of businesses worldwide. Your company stores historical customer data in BigQuery. You need to build a model that predicts customer lifetime value over the next three years. You want to use the simplest approach to build the model and you want to have access to visualization tools. What should you do?

    Create a Vertex AI Workbench notebook to perform exploratory data analysis. Use IPython magics to create a new BigQuery table with input features, create the model, and validate the results by using the CREATE MODEL, ML.EVALUATE, and ML.PREDICT statements.

  • 3

    (Q#253) あなたは配送会社に勤めています。あなたは、配達された小包やトラックの位置などの特徴を時系列で保存・管理するシステムを設計する必要があります。システムは低レイテンシーで特徴を取得し、それらの特徴をオンライン予測のモデルに投入する必要があります。データ・サイエンス・チームは、モデル・トレーニングのために特定の時点で過去のデータを取得する。最小限の労力で特徴を保存したい。どうするべきか? You work for a delivery company. You need to design a system that stores and manages features such as parcels delivered and truck locations over time. The system must retrieve the features with low latency and feed those features into a model for online prediction. The data science team will retrieve historical data at a specific point in time for model training. You want to store the features with minimal effort. What should you do?

    Store features in Vertex AI Feature Store.

  • 4

    (Q#254) あなたは管理されたVertex AI Workbenchノートブックでテキスト分類モデルのプロトタイプに取り組んでいます。Natural Language Toolkit (NLTK) ライブラリを使用して、テキストをトークン化する実験を素早く行いたいと考えています。どのようにライブラリをJupyterカーネルに追加しますか? You are working on a prototype of a text classification model in a managed Vertex AI Workbench notebook. You want to quickly experiment with tokenizing text by using a Natural Language Toolkit (NLTK) library. How should you add the library to your Jupyter kernel?

    Install the NLTK library from a Jupyter cell by using the !pip install nltk --user command.

  • 5

    (Q#255) あなたは最近、TensorFlowを使って表形式データの分類モデルを学習しました。数テラバイトのデータをTFRecordsで構成されるトレーニングデータセットまたは予測データセットに変換できるDataflowパイプラインを作成しました。あなたは今、モデルをプロダクション化する必要があり、予測値を1週間のスケジュールで自動的にBigQueryテーブルにアップロードする必要があります。どうすればいいでしょうか? You have recently used TensorFlow to train a classification model on tabular data. You have created a Dataflow pipeline that can transform several terabytes of data into training or prediction datasets consisting of TFRecords. You now need to productionize the model, and you want the predictions to be automatically uploaded to a BigQuery table on a weekly schedule. What should you do?

    Import the model into Vertex AI. On Vertex AI Pipelines, create a pipeline that uses the DataflowPythonJobOp and the ModelBatchPredictOp components.

  • 6

    (Q#256) あなたはオンライン食料品店に勤めています。あなたは最近、ユーザーがウェブサイトにアクセスしたときにレシピを推薦するカスタムMLモデルを開発しました。あなたは、モデルが処理できる1秒あたりのクエリ(QPS)を使用してコストを最適化するために、Vertex AIエンドポイントのマシンタイプを選択し、8つのvCPUとアクセラレータを持たない単一のマシンにそれをデプロイしました。 ホリデーシーズンが近づいており、この期間は通常の1日のトラフィックの4倍のトラフィックが予想されます。増加する需要に対してモデルが効率的にスケールできるようにする必要があります。どうすればよいでしょうか? You work for an online grocery store. You recently developed a custom ML model that recommends a recipe when a user arrives at the website. You chose the machine type on the Vertex AI endpoint to optimize costs by using the queries per second (QPS) that the model can serve, and you deployed it on a single machine with 8 vCPUs and no accelerators. A holiday season is approaching and you anticipate four times more traffic during this time than the typical daily traffic. You need to ensure that the model can scale efficiently to the increased demand. What should you do?

    1. Maintain the same machine type on the endpoint Configure the endpoint to enable autoscaling based on vCPU usage. 2. Set up a monitoring job and an alert for CPU usage. 3. If you receive an alert, investigate the cause.

  • 7

    (Q#257) あなたは最近、表データに対してXGBoostモデルを学習させました。あなたはそのモデルをHTTPマイクロサービスとして内部用に公開する予定です。デプロイ後、少数のリクエストが来ることが予想されます。あなたは、最小限の労力と待ち時間でモデルをプロダクション化したいと考えています。何をすべきでしょうか? You recently trained an XGBoost model on tabular data. You plan to expose the model for internal use as an HTTP microservice. After deployment, you expect a small number of incoming requests. You want to productionize the model with the least amount of effort and latency. What should you do?

    Use a prebuilt XGBoost Vertex container to create a model, and deploy it to Vertex AI Endpoints.

  • 8

    (Q#258) あなたは科学製品を世界中に出荷している国際的な製造会社に勤めています。これらの製品の取扱説明書は、15 の異なる言語に翻訳する必要があります。あなたの組織のリーダーシップチームは、機械学習を使用して手作業による翻訳のコストを削減し、翻訳速度を向上させたいと考えています。あなたは、精度を最大化し、運用オーバーヘッドを最小限に抑えるスケーラブルなソリューションを実装する必要があります。また、不正確な翻訳を評価し、修正するプロセスも含める必要があります。どうすればよいでしょうか? You work for an international manufacturing organization that ships scientific products all over the world. Instruction manuals for these products need to be translated to 15 different languages. Your organization’s leadership team wants to start using machine learning to reduce the cost of manual human translations and increase translation speed. You need to implement a scalable solution that maximizes accuracy and minimizes operational overhead. You also want to include a process to evaluate and fix incorrect translations. What should you do?

    Use AutoML Translation to train a model. Configure a Translation Hub project, and use the trained model to translate the documents. Use human reviewers to evaluate the incorrect translations.

  • 9

    (Q#259) あなたは、複数の scikit-learn モデルの連鎖を使用して、自社製品の最適価格を予測するアプリケーションを開発しました。ワークフローのロジックを図に示します。チームのメンバーは、個々のモデルを他のソリューションワークフローで使用します。各モデルとワークフロー全体のバージョン管理を確保しながら、このワークフローを展開したい。アプリケーションは、ゼロまでスケールダウンできる必要があります。このソリューションの管理に必要な計算リソースの使用と手作業を最小限に抑えたい。どうすればよいでしょうか? You have developed an application that uses a chain of multiple scikit-learn models to predict the optimal price for your company’s products. The workflow logic is shown in the diagram. Members of your team use the individual models in other solution workflows. You want to deploy this workflow while ensuring version control for each individual model and the overall workflow. Your application needs to be able to scale down to zero. You want to minimize the compute resource utilization and the manual effort required to manage this solution. What should you do? ┌-> (model A) -> (model B) -┐ (input)--┤ ├-> (model D) -> (Prediction) └-> (model C) -------------┘

    Expose each individual model as an endpoint in Vertex AI Endpoints. Use Cloud Run to orchestrate the workflow.

  • 10

    (Q#260) あなたは、重要な機械部品に故障が発生するかどうかを予測するモデルを開発しています。多変量時系列と機械部品が故障したかどうかを示すラベルからなるデータセットがあります。あなたは最近、Vertex AI Workbenchノートブックで、いくつかの異なる前処理とモデリングアプローチの実験を始めました。データを記録し、各実行のアーチファクトを追跡したいと思います。どのように実験をセットアップしますか? You are developing a model to predict whether a failure will occur in a critical machine part. You have a dataset consisting of a multivariate time series and labels indicating whether the machine part failed. You recently started experimenting with a few different preprocessing and modeling approaches in a Vertex AI Workbench notebook. You want to log data and track artifacts from each run. How should you set up your experiments?

    1. Create a Vertex AI TensorBoard instance, and use the Vertex AI SDK to create an experiment and associate the TensorBoard instance. 2. Use the log_time_series_metrics function to track the preprocessed data, and use the log_metrics function to log loss values.

  • 11

    (Q#261) あなたはオンライン衣料品店のレコメンデーションエンジンを開発しています。過去の顧客取引データはBigQueryとクラウドストレージに保存されています。探索的データ分析(EDA)、前処理、およびモデルのトレーニングを実行する必要があります。これらのEDA、前処理、トレーニングのステップは、さまざまなタイプのアルゴリズムを試しながら再実行する予定です。実験に伴ってこれらのステップを実行するコストと開発工数を最小限に抑えたい。どのように環境を構成すればよいでしょうか? You are developing a recommendation engine for an online clothing store. The historical customer transaction data is stored in BigQuery and Cloud Storage. You need to perform exploratory data analysis (EDA), preprocessing and model training. You plan to rerun these EDA, preprocessing, and training steps as you experiment with different types of algorithms. You want to minimize the cost and development effort of running these steps as you experiment. How should you configure the environment?

    Create a Vertex AI Workbench managed notebook to browse and query the tables directly from the JupyterLab interface.

  • 12

    (Q#262) 最近、モデルを Vertex AI エンドポイントにデプロイし、Vertex AI Feature Store でオンライン サービングを設定しました。フィーチャーストアを更新するために、毎日バッチ取り込みジョブを構成しました。バッチ取り込みジョブの実行中に、フィーチャーストアのオンラインサービングノードのCPU使用率が高く、フィーチャー検索レイテンシが高いことが判明しました。毎日のバッチ取り込み中に、オンラインサービスのパフォーマンスを改善する必要があります。どうすればよいでしょうか。 You recently deployed a model to a Vertex AI endpoint and set up online serving in Vertex AI Feature Store. You have configured a daily batch ingestion job to update your featurestore. During the batch ingestion jobs, you discover that CPU utilization is high in your featurestore’s online serving nodes and that feature retrieval latency is high. You need to improve online serving performance during the daily batch ingestion. What should you do?

    Schedule an increase in the number of online serving nodes in your featurestore prior to the batch ingestion jobs

  • 13

    (Q#263) あなたは、表データに基づくカスタムTensorFlow分類モデルを開発しています。生データはBigQueryに格納されており、数億行を含み、カテゴリフィーチャと数値フィーチャの両方が含まれています。数値特徴にはMaxMinスケーラーを使用し、SKU名などのカテゴリ特徴にはワンホットエンコーディングを適用する必要があります。モデルは複数のエポックにわたって学習される。ソリューションの労力とコストを最小化したい。どうすればいいでしょうか? You are developing a custom TensorFlow classification model based on tabular data. Your raw data is stored in BigQuery. contains hundreds of millions of rows, and includes both categorical and numerical features. You need to use a MaxMin scaler on some numerical features, and apply a one-hot encoding to some categorical features such as SKU names. Your model will be trained over multiple epochs. You want to minimize the effort and cost of your solution. What should you do?

    1. Use TFX components with Dataflow to encode the text features and scale the numerical features. 2. Export results to Cloud Storage as TFRecords. 3. Feed the data into Vertex AI Training.

  • 14

    (Q#264) あなたは小売企業に勤めている。あなたは、各顧客の解約確率を決定するモデルの構築を任されています。予測結果は、リスクのある顧客をターゲットにしたマーケティング・キャンペーンの開発に使用できるよう、解釈可能である必要があります。あなたは何をすべきでしょうか? You work for a retail company. You have been tasked with building a model to determine the probability of churn for each customer. You need the predictions to be interpretable so the results can be used to develop marketing campaigns that target at-risk customers. What should you do?

    Build a random forest classification model in a Vertex AI Workbench notebook instance. Configure the model to generate feature importances after the model is trained.

  • 15

    (Q#265) あなたは、ユーザーの食事計画を支援するアプリケーションを開発している会社に勤めている。あなたは機械学習を使ってレシピのコーパスをスキャンし、言及された各食材(例えば、ニンジン、米、パスタ)と各キッチン調理器具(例えば、ボウル、鍋、スプーン)を抽出したい。各レシピは構造化されていないテキストファイルに保存されています。どうすればいいでしょうか? You work for a company that is developing an application to help users with meal planning. You want to use machine learning to scan a corpus of recipes and extract each ingredient (e.g., carrot, rice, pasta) and each kitchen cookware (e.g., bowl, pot, spoon) mentioned. Each recipe is saved in an unstructured text file. What should you do?

    Create a text dataset on Vertex AI for entity extraction Create two entities called “ingredient” and “cookware”, and label at least 200 examples of each entity. Train an AutoML entity extraction model to extract occurrences of these entity types. Evaluate performance on a holdout dataset.

  • 16

    (Q#266) あなたは、ストリーミング音楽サービスを運営する組織で働いています。あなたは、ユーザーの最近のリスニング履歴に基づいて「次の曲」を推薦するカスタム制作モデルを持っています。あなたのモデルはVertex AIエンドポイントにデプロイされています。最近、新しいデータを使用して同じモデルを再トレーニングしました。モデルはオフラインで肯定的なテスト結果を得ました。あなたは今、複雑さを最小限に抑えながら、本番環境で新しいモデルをテストしたいと考えています。どうすればよいでしょうか? You work for an organization that operates a streaming music service. You have a custom production model that is serving a “next song” recommendation based on a user's recent listening history. Your model is deployed on a Vertex AI endpoint. You recently retrained the same model by using fresh data. The model received positive test results offline. You now want to test the new model in production while minimizing complexity. What should you do?

    Deploy the new model to the existing Vertex AI endpoint. Use traffic splitting to send 5% of production traffic to the new model. Monitor end-user metrics, such as listening time. If end-user metrics improve between models over time, gradually increase the percentage of production traffic sent to the new model.

  • 17

    (Q#267) あなたはBigQuery MLを使用して線形回帰を実行するモデルを作成しました。毎週収集した累積データでモデルを再学習する必要があります。あなたは開発工数とスケジューリングコストを最小化したいと考えています。どうすればよいでしょうか? You created a model that uses BigQuery ML to perform linear regression. You need to retrain the model on the cumulative data collected every week. You want to minimize the development effort and the scheduling cost. What should you do?

    Use BigQuery’s scheduling service to run the model retraining query periodically.

  • 18

    (Q#268) scikit-learnの分類器モデルをTensorFlowに移行したい。scikit-learnモデルの学習に使用したのと同じ学習セットを使用してTensorFlow分類器モデルを学習し、共通のテストセットを使用して性能を比較する予定です。Vertex AI Python SDKを使用して、各モデルの評価メトリクスを手動でログに記録し、F1スコアと混同行列に基づいて比較したいとします。メトリクスはどのように記録すればよいでしょうか? You want to migrate a scikit-learn classifier model to TensorFlow. You plan to train the TensorFlow classifier model using the same training set that was used to train the scikit-learn model, and then compare the performances using a common test set. You want to use the Vertex AI Python SDK to manually log the evaluation metrics of each model and compare them based on their F1 scores and confusion matrices. How should you log the metrics?

    Use the aiplatform.log_classification_metrics function to log the F1 score and the confusion matrix.

  • 19

    (Q#269) あなたは、よりターゲットを絞ったオンライン広告キャンペーンを行うためのモデルを開発しています。モデルの学習に使用するデータセットを作成する必要があります。モデルに不公平なバイアスが生じたり、強化されたりするのを避けたい。あなたは何をすべきでしょうか?(2つ選んでください) You are developing a model to help your company create more targeted online advertising campaigns. You need to create a dataset that you will use to train the model. You want to avoid creating or reinforcing unfair bias in the model. What should you do? (Choose two.)

    本番トラフィックの層化抽出サンプルを収集してトレーニングデータセットを構築する Collect a stratified sample of production traffic to build the training dataset, トレーニング済みモデルに対して、機密性の高いカテゴリおよびデモグラフィック全体で公平性テストを実施する Conduct fairness tests across sensitive categories and demographics on the trained model

  • 20

    (Q#270) あなたはVertex AI WorkbenchノートブックでMLモデルを開発しています。異なるアプローチを使用した実験中に成果物を追跡し、モデルを比較したい。モデルの実装を繰り返しながら、成功した実験を迅速かつ容易に本番環境に移行する必要があります。どうすればよいでしょうか? You are developing an ML model in a Vertex AI Workbench notebook. You want to track artifacts and compare models during experimentation using different approaches. You need to rapidly and easily transition successful experiments to production as you iterate on your model implementation. What should you do?

    1. Initialize the Vertex SDK with the name of your experiment. Log parameters and metrics for each experiment, and attach dataset and model artifacts as inputs and outputs to each execution. 2. After a successful experiment create a Vertex AI pipeline.

  • 21

    (Q#271) 最近、新しい Google Cloud プロジェクトを作成しました。クラウド シェルから Vertex AI Pipeline ジョブを送信できることをテストした後、Vertex AI Workbench ユーザー管理ノートブック インスタンスを使用して、そのインスタンスからコードを実行したいと思います。インスタンスを作成してコードを実行しましたが、今度はジョブが権限不足エラーで失敗しました。どうすればよいでしょうか? You recently created a new Google Cloud project. After testing that you can submit a Vertex AI Pipeline job from the Cloud Shell, you want to use a Vertex AI Workbench user-managed notebook instance to run your code from that instance. You created the instance and ran the code but this time the job fails with an insufficient permissions error. What should you do?

    Ensure that the Vertex AI Workbench instance is assigned the Identity and Access Management (IAM) Vertex AI User role.

  • 22

    (Q#272) あなたは半導体製造会社に勤めています。品質管理プロセスを自動化するリアルタイム・アプリケーションを作成する必要があります。各半導体の高解像度画像は、組立ラインの最後にリアルタイムで撮影されます。写真は、各半導体のバッチ番号、シリアル番号、寸法、重量を含む表データとともに、クラウドストレージのバケットにアップロードされます。モデルの精度を最大化しながら、モデルのトレーニングとサービングを構成する必要があります。どうすればよいでしょうか? You work for a semiconductor manufacturing company. You need to create a real-time application that automates the quality control process. High-definition images of each semiconductor are taken at the end of the assembly line in real time. The photos are uploaded to a Cloud Storage bucket along with tabular data that includes each semiconductor’s batch number, serial number, dimensions, and weight. You need to configure model training and serving while maximizing model accuracy. What should you do?

    Use Vertex AI Data Labeling Service to label the images, and tram an AutoML image classification model. Deploy the model, and configure Pub/Sub to publish a message when an image is categorized into the failing class.

  • 23

    (Q#273) あなたは急成長中のソーシャルメディア企業に勤めています。あなたのチームは、オンプレミスのCPUクラスタでTensorFlowレコメンダーモデルを構築しています。データには、数十億の過去のユーザーイベントと10万のカテゴリ特徴が含まれています。データが増えるにつれて、モデルのトレーニング時間が長くなることに気づきました。Google Cloudにモデルを移行する予定です。最もスケーラブルでトレーニング時間を最小化できるアプローチを使用したい。どうすればよいでしょうか? You work for a rapidly growing social media company. Your team builds TensorFlow recommender models in an on-premises CPU cluster. The data contains billions of historical user events and 100,000 categorical features. You notice that as the data increases, the model training time increases. You plan to move the models to Google Cloud. You want to use the most scalable approach that also minimizes training time. What should you do?

    Deploy the training jobs by using TPU VMs with TPUv3 Pod slices, and use the TPUEmbeading API

  • 24

    (Q#274) Vertex AI Pipelines、Vertex AI Training、Vertex AI Experiments、および Vertex AI Endpoints を使用して、表データを使用した回帰モデルの更新バージョンをトレーニングおよびデプロイしています。モデルは Vertex AI エンドポイントに配備され、ユーザーは Vertex AI エンドポイントを使用してモデルを呼び出します。特徴データの分布が大幅に変更されたときに電子メールを受信したいので、トレーニング パイプラインを再トリガーして、モデルの更新バージョンを展開できます。どうすればよいでしょうか? You are training and deploying updated versions of a regression model with tabular data by using Vertex AI Pipelines, Vertex AI Training, Vertex AI Experiments, and Vertex AI Endpoints. The model is deployed in a Vertex AI endpoint, and your users call the model by using the Vertex AI endpoint. You want to receive an email when the feature data distribution changes significantly, so you can retrigger the training pipeline and deploy an updated version of your model. What should you do?

    Use Vertex Al Model Monitoring. Enable prediction drift monitoring on the endpoint, and specify a notification email.

  • 25

    (Q#275) あなたは、オンライン予測のためにVertex AI上に配置する予定のXGBoostモデルをトレーニングしました。モデルをVertex AI Model Registryにアップロードし、オンライン予測要求を最小の待ち時間で返す説明メソッドを設定する必要があります。また、モデルの特徴属性が時間の経過とともに有意に変化した場合にアラートを出したいと考えています。どうすればよいでしょうか? You have trained an XGBoost model that you plan to deploy on Vertex AI for online prediction. You are now uploading your model to Vertex AI Model Registry, and you need to configure the explanation method that will serve online prediction requests to be returned with minimal latency. You also want to be alerted when feature attributions of the model meaningfully change over time. What should you do?

    1. Specify sampled Shapley as the explanation method with a path count of 5. 2. Deploy the model to Vertex AI Endpoints. 3. Create a Model Monitoring job that uses prediction drift as the monitoring objective.

  • 26

    (Q#276) あなたは、クラウド・ストレージに数テラバイトの構造化データを持つゲーム新興企業に勤めている。このデータには、ゲームプレイ時間データ、ユーザーメタデータ、ゲームメタデータが含まれます。あなたは、ユーザーに新しいゲームを推薦するモデルを、最小限のコーディングで構築したいと考えています。何をすべきでしょうか? You work at a gaming startup that has several terabytes of structured data in Cloud Storage. This data includes gameplay time data, user metadata, and game metadata. You want to build a model that recommends new games to users that requires the least amount of coding. What should you do?

    Load the data in BigQuery. Use BigQuery ML to train a matrix factorization model.

  • 27

    (Q#277) あなたは、米国とシンガポールで稼働しているGoogle Cloudでホストされたアプリケーションを通じて顧客にサービスを提供している大手銀行に勤めています。あなたは、トランザクションを不正の可能性があるかどうか分類する PyTorch モデルを開発しました。モデルは 3 層パーセプトロンで、入力として数値とカテゴリカルの両方の特徴を使用し、モデル内でハッシュが行われます。 このモデルは nl-highcpu-16 のマシンで us-central1 地域にデプロイされ、予測はリアルタイムで提供される。モデルの現在の中央応答レイテンシは40ミリ秒です。待ち時間を短縮したい、特にシンガポールで待ち時間が最も長くなっています。何をすべきでしょうか? You work for a large bank that serves customers through an application hosted in Google Cloud that is running in the US and Singapore. You have developed a PyTorch model to classify transactions as potentially fraudulent or not. The model is a three-layer perceptron that uses both numerical and categorical features as input, and hashing happens within the model. You deployed the model to the us-central1 region on nl-highcpu-16 machines, and predictions are served in real time. The model's current median response latency is 40 ms. You want to reduce latency, especially in Singapore, where some customers are experiencing the longest delays. What should you do?

    Create another Vertex AI endpoint in the asia-southeast1 region, and allow the application to choose the appropriate endpoint.

  • 28

    (Q#278) 小さなデータセットでXGBoostモデルを学習する必要があります。学習コードにはカスタム依存関係が必要です。トレーニングジョブの起動時間を最小限に抑えたい。Vertex AIカスタムトレーニングジョブをどのように設定しますか? You need to train an XGBoost model on a small dataset. Your training code requires custom dependencies. You want to minimize the startup time of your training job. How should you set up your Vertex AI custom training job?

    Store the data in a Cloud Storage bucket, and create a custom container with your training application. In your training application, read the data from Cloud Storage and train the model.

  • 29

    (Q#279) データ処理、モデルのトレーニング、モデルのデプロイのためのMLパイプラインを作成しています。各タスクのコードを開発し、新しいファイルを頻繁に作成することを想定しています。これらのタスクの上にオーケストレーションレイヤーを作成する必要があります。このオーケストレーション・パイプラインは、Cloud Storageバケット内のデータセットに新しいファイルが存在する場合にのみ実行したい。また、コンピュート・ノードのコストも最小限にしたい。どうすればいいでしょうか? You are creating an ML pipeline for data processing, model training, and model deployment that uses different Google Cloud services. You have developed code for each individual task, and you expect a high frequency of new files. You now need to create an orchestration layer on top of these tasks. You only want this orchestration pipeline to run if new files are present in your dataset in a Cloud Storage bucket. You also want to minimize the compute node costs. What should you do?

    Create a pipeline in Vertex AI Pipelines. Create a Cloud Function that uses a Cloud Storage trigger and deploys the pipeline.

  • 30

    (Q#280) あなたはKubeflow Pipelinesを使用して、エンドツーエンドのPyTorchベースのMLOpsパイプラインを開発しています。パイプラインはBigQueryからデータを読み込み、データを処理し、フィーチャーエンジニアリング、モデルトレーニング、モデル評価を行い、モデルをバイナリファイルとしてクラウドストレージにデプロイします。あなたは、フィーチャーエンジニアリングとモデルトレーニングステップの複数の異なるバージョンのコードを書き、Vertex AI Pipelinesでそれぞれの新しいバージョンを実行しています。各パイプラインの実行には1時間以上かかっています。パイプラインの実行を高速化して開発時間を短縮し、追加コストを回避したい。どうすればよいでしょうか? You are using Kubeflow Pipelines to develop an end-to-end PyTorch-based MLOps pipeline. The pipeline reads data from BigQuery, processes the data, conducts feature engineering, model training, model evaluation, and deploys the model as a binary file to Cloud Storage. You are writing code for several different versions of the feature engineering and model training steps, and running each new version in Vertex AI Pipelines. Each pipeline run is taking over an hour to complete. You want to speed up the pipeline execution to reduce your development time, and you want to avoid additional costs. What should you do?

    Enable caching in all the steps of the Kubeflow pipeline.

  • 31

    (Q#281) あなたは、最近MLとデータのワークロードをGoogle Cloudに移行することを決めた大企業で働いている。データエンジニアリングチームは、構造化データをAvro形式でCloud Storageバケットにエクスポートしました。あなたは、分析を実行し、特徴を作成し、MLモデルがオンライン予測に使用する特徴をホストするワークフローを提案する必要があります。どのようにパイプラインを構成しますか? You work at a large organization that recently decided to move their ML and data workloads to Google Cloud. The data engineering team has exported the structured data to a Cloud Storage bucket in Avro format. You need to propose a workflow that performs analytics, creates features, and hosts the features that your ML models use for online prediction. How should you configure the pipeline?

    Ingest the Avro files into BigQuery to perform analytics. Use a Dataflow pipeline to create the features, and store them in Vertex AI Feature Store for online prediction.

  • 32

    (Q#282) あなたは、従来のチャット、音声、ビデオ会議を1つのプラットフォームに統合したクラウドベースのコミュニケーション・プラットフォームを管理する組織で働いています。音声録音はクラウドストレージに保存されています。すべての録音はサンプルレートが8kHzで、1分以上の長さがあります。あなたは、通話要約や感情分析などの将来のアプリケーションのために、音声通話録音を自動的にテキストに書き起こす新機能をプラットフォームに実装する必要があります。Googleが推奨するベストプラクティスに従って、音声通話の書き起こし機能をどのように実装すればよいでしょうか? You work at an organization that maintains a cloud-based communication platform that integrates conventional chat, voice, and video conferencing into one platform. The audio recordings are stored in Cloud Storage. All recordings have an 8 kHz sample rate and are more than one minute long. You need to implement a new feature in the platform that will automatically transcribe voice call recordings into a text for future applications, such as call summarization and sentiment analysis. How should you implement the voice call transcription feature following Google-recommended best practices?

    Use the original audio sampling rate, and transcribe the audio by using the Speech-to-Text API with asynchronous recognition.

  • 33

    (Q#283) あなたは、最近スペインで業務を開始した多国籍企業に勤めています。組織内の各チームは、ビジネス、法務、財務など、さまざまなスペイン語の文書を扱う必要があります。あなたは、機械学習を使用して、正確な翻訳を迅速かつ最小限の労力で行えるようにしたいと考えています。あなたの組織は、ドメイン固有の用語や専門用語を必要としません。どうすればよいでしょうか? You work for a multinational organization that has recently begun operations in Spain. Teams within your organization will need to work with various Spanish documents, such as business, legal, and financial documents. You want to use machine learning to help your organization get accurate translations quickly and with the least effort. Your organization does not require domain-specific terms or jargon. What should you do?

    Use the Document Translation feature of the Cloud Translation API to translate the documents.

  • 34

    (Q#284) Vertex AIで毎週実行されるカスタムジョブがあります。このジョブは、データセット、モデル、カスタム成果物を作成し、クラウドストレージバケットに送信する独自のMLワークフローを使用して実装されています。データセットとモデルの多くの異なるバージョンが作成されました。コンプライアンス要件により、貴社は特定の予測を行うためにどのモデルが使用されたかを追跡する必要があり、各モデルの成果物にアクセスする必要があります。これらの要件を満たすために、ワークフローをどのように構成すべきでしょうか? You have a custom job that runs on Vertex AI on a weekly basis. The job is implemented using a proprietary ML workflow that produces the datasets, models, and custom artifacts, and sends them to a Cloud Storage bucket. Many different versions of the datasets and models were created. Due to compliance requirements, your company needs to track which model was used for making a particular prediction, and needs access to the artifacts for each model. How should you configure your workflows to meet these requirements?

    Use the Vertex AI Metadata API inside the custom job to create context, execution, and artifacts for each model, and use events to link them together.

  • 35

    (Q#285) あなたは最近、ニューラルネットワークを使用した画像分類のカスタムモデルを開発しました。学習率、層数、カーネルサイズの値を自動的に特定する必要があります。そのためには、複数のジョブを並行して実行し、パフォーマンスを最適化するパラメータを特定する必要があります。カスタムコードの開発とインフラ管理を最小限に抑えたい。どうすればよいでしょうか? You have recently developed a custom model for image classification by using a neural network. You need to automatically identify the values for learning rate, number of layers, and kernel size. To do this, you plan to run multiple jobs in parallel to identify the parameters that optimize performance. You want to minimize custom code development and infrastructure management. What should you do?

    Create a Vertex AI hyperparameter tuning job.

  • 36

    (Q#286) あなたは世界中の都市に橋を建設する会社に勤めている。建設現場でのプロジェクトの進捗を追跡するために、あなたの会社は各場所にカメラを設置しました。毎時間、カメラは写真を撮り、クラウドストレージのバケットに送信する。専門家のチームが画像をレビューし、重要な画像をフィルタリングし、画像内の特定のオブジェクトに注釈を付ける。あなたは、会社のスケールアップとコスト削減に役立つMLソリューションの使用を提案したい。ソリューションの初期費用は最小限に抑える必要があります。どのような方法を提案すべきでしょうか? You work for a company that builds bridges for cities around the world. To track the progress of projects at the construction sites, your company has set up cameras at each location. Each hour, the cameras take a picture that is sent to a Cloud Storage bucket. A team of specialists reviews the images, filters important ones, and then annotates specific objects in them. You want to propose using an ML solution that will help the company scale and reduce costs. You need the solution to have minimal up-front cost. What method should you propose?

    Use the Cloud Vision API to automatically annotate objects in the images to help specialists with the annotation task.

  • 37

    (Q#287) あなたには、本番環境でツリーベースのモデルを再トレーニングするためのMLOpsパイプラインを構築するタスクが与えられています。パイプラインには、データの取り込み、データ処理、モデルのトレーニング、モデルの評価、モデルのデプロイに関連するコンポーネントが含まれます。あなたの組織では、データの前処理に主にPySparkベースのワークロードを使用しています。インフラ管理の労力を最小限に抑えたい。どのようにパイプラインをセットアップすべきでしょうか? You are tasked with building an MLOps pipeline to retrain tree-based models in production. The pipeline will include components related to data ingestion, data processing, model training, model evaluation, and model deployment. Your organization primarily uses PySpark-based workloads for data preprocessing. You want to minimize infrastructure management effort. How should you set up the pipeline?

    Set up a Vertex AI Pipelines to orchestrate the MLOps pipeline. Use the predefined Dataproc component for the PySpark-based workloads.

  • 38

    (Q#288) あなたは、組織の Web サイトを利用する価値の高い顧客を識別する AutoML 表形式分類モデルを開発しました。このモデルを、Web サイトアプリケーションと統合する新しい Vertex AI エンドポイントに展開する予定です。夜間と週末にウェブサイトへのトラフィックが増加することが予想されます。遅延とコストを最小限に抑えるために、モデルのエンドポイントの展開設定を構成する必要があります。どうすればよいでしょうか。 You have developed an AutoML tabular classification model that identifies high-value customers who interact with your organization's website. You plan to deploy the model to a new Vertex AI endpoint that will integrate with your website application. You expect higher traffic to the website during nights and weekends. You need to configure the model endpoint's deployment settings to minimize latency and cost. What should you do?

    Configure the model deployment settings to use an n1-standard-4 machine type. Set the minReplicaCount value to 1 and the maxReplicaCount value to 8.

  • 39

    (Q#289) あなたは、BigQueryテーブルに格納されたトレーニングデータセットを使用して、BigQuery ML線形回帰モデルを開発しました。テーブルには1分ごとに新しいデータが追加されます。Cloud SchedulerとVertex AI Pipelinesを使用して、毎時のモデル学習を自動化し、モデルを直接推論に使用しています。特徴の前処理ロジックには、直近1時間に受信したデータの分位バケツ化とMinMaxスケーリングが含まれます。ストレージと計算のオーバーヘッドを最小限に抑えたい。どうすればよいでしょうか? You developed a BigQuery ML linear regressor model by using a training dataset stored in a BigQuery table. New data is added to the table every minute. You are using Cloud Scheduler and Vertex AI Pipelines to automate hourly model training, and use the model for direct inference. The feature preprocessing logic includes quantile bucketization and MinMax scaling on data received in the last hour. You want to minimize storage and computational overhead. What should you do?

    Use the TRANSFORM clause in the CREATE MODEL statement in the SQL query to calculate the required statistics.

  • 40

    (Q#290) あなたは、回帰モデルをトレーニングするためにKerasを使用してPythonモジュールを開発しました。同じモジュール内で、線形回帰とディープニューラルネットワーク(DNN)という2つのモデルアーキテクチャを開発しました。training_method引数を使用して2つの方法のうち1つを選択し、DNNでlearning_rate引数とnum_hidden_layers引数を使用しています。Vertex AIのハイパーチューニング・サービスを、100回の試行を行う予算で利用する予定です。学習損失を最小化し、モデルの性能を最大化するモデル・アーキテクチャとハイパーパラメータ値を特定したいとします。どうすればよいでしょうか? You developed a Python module by using Keras to train a regression model. You developed two model architectures, linear regression and deep neural network (DNN), within the same module. You are using the training_method argument to select one of the two methods, and you are using the learning_rate and num_hidden_layers arguments in the DNN. You plan to use Vertex AI's hypertuning service with a budget to perform 100 trials. You want to identify the model architecture and hyperparameter values that minimize training loss and maximize model performance. What should you do?

    Run one hypertuning job for 100 trials. Set num_hidden_layers and learning_rate as conditional hyperparameters based on their parent hyperparameter training_method.

  • 41

    (Q#291) あなたは病院に勤務しています。必要な患者データを収集する承認を受け、患者の入院リスクスコアを計算するVertex AI表形式AutoMLモデルをトレーニングしました。あなたはそのモデルを配備しました。しかし、患者の属性が時間の経過とともに変化し、特徴の相互作用が変化して予測精度に影響することを懸念しています。あなたは、特徴の相互作用が変化した場合にアラートを出したいですし、予測に対する特徴の重要性を理解したいです。アラートアプローチはコストを最小限に抑えたい。どうすればいいでしょうか? You work for a hospital. You received approval to collect the necessary patient data, and you trained a Vertex AI tabular AutoML model that calculates patients' risk score for hospital admission. You deployed the model. However, you're concerned that patient demographics might change over time and alter the feature interactions and impact prediction accuracy. You want to be alerted if feature interactions change, and you want to understand the importance of the features for the predictions. You want your alerting approach to minimize cost. What should you do?

    Create a feature attribution drift monitoring job. Set the sampling rate to 0.1 and the monitoring frequency to weekly.

  • 42

    (Q#292) 標準的な TFX コンポーネントを使用して、TensorFlow Extended (TFX) パイプラインを開発しています。パイプラインには、データの前処理ステップが含まれています。パイプラインが本番環境にデプロイされると、BigQueryに格納された最大100TBのデータを処理することになります。効率的にスケールし、メトリクスとパラメータを Vertex AI Experiments に公開し、Vertex ML Metadata を使用して成果物を追跡するには、データ前処理ステップが必要です。パイプラインの実行はどのように構成すればよいでしょうか? You are developing a TensorFlow Extended (TFX) pipeline with standard TFX components. The pipeline includes data preprocessing steps. After the pipeline is deployed to production, it will process up to 100 TB of data stored in BigQuery. You need the data preprocessing steps to scale efficiently, publish metrics and parameters to Vertex AI Experiments, and track artifacts by using Vertex ML Metadata. How should you configure the pipeline run?

    Run the TFX pipeline in Vertex AI Pipelines. Set the appropriate Apache Beam parameters in the pipeline to run the data preprocessing steps in Dataflow.

  • 43

    (Q#293) カスタムモデルをトレーニングし、予測を実行するバッチプロセスを開発しています。モデルとバッチ予測の両方の系統を表示できるようにする必要があります。どうすればよいでしょうか? You are developing a batch process that will train a custom model and perform predictions. You need to be able to show lineage for both your model and the batch predictions. What should you do?

    1. Use a Vertex AI Pipelines custom training job component to train your model. 2. Generate predictions by using a Vertex AI Pipelines model batch predict component.

  • 44

    (Q#294) あなたは、世界中の何千もの企業に法人向け電子製品を販売している企業に勤めています。貴社は過去の顧客データをBigQueryに保存しています。今後3年間の顧客生涯価値を予測するモデルを構築する必要があります。モデルの構築には最も単純なアプローチを使用したいとします。どうすればよいでしょうか? You work for a company that sells corporate electronic products to thousands of businesses worldwide. Your company stores historical customer data in BigQuery. You need to build a model that predicts customer lifetime value over the next three years. You want to use the simplest approach to build the model. What should you do?

    Access BigQuery Studio in the Google Cloud console. Run the CREATE MODEL statement in the SQL editor to create an AutoML regression model.

  • 45

    (Q#295) あなたは小売企業に勤めており、商品の売上を予測するMLモデルの開発を任されています。あなたの会社の過去の販売データはBigQueryに保存されており、日付、店舗の場所、商品カテゴリ、プロモーションの詳細などの特徴が含まれています。予測精度を最大化するために、BigQuery MLモデルと特徴工学の最も効果的な組み合わせを選択する必要があります。何をすべきでしょうか? You work at a retail company, and are tasked with developing an ML model to predict product sales. Your company’s historical sales data is stored in BigQuery and includes features such as date, store location, product category, and promotion details. You need to choose the most effective combination of a BigQuery ML model and feature engineering to maximize prediction accuracy. What should you do?

    Use a linear regression model. Perform one-hot encoding on categorical features, and create additional features based on the date, such as day of the week or month.

  • 46

    (Q#296) あなたの組織の従業員オンボーディングチームは、新入社員のための対話型セルフヘルプツールを構築することを望んでいます。このツールは、ユーザーからの問い合わせを受け取り、組織の内部文書から回答を提供する必要があります。このドキュメントは、PDFファイルなどのスタンドアロンドキュメントにまたがっています。あなたは、メンテナンスのオーバーヘッドを最小限に抑えながら、迅速にソリューションを構築したいと考えています。どうすればよいでしょうか? Your organization’s employee onboarding team wants you to build an interactive self-help tool for new employees. The tool needs to receive queries from users and provide answers from the organization’s internal documentation. This documentation is spread across standalone documents such as PDF files. You want to build a solution quickly while minimizing maintenance overhead. What should you do?

    Use Vertex AI Agent Builder to create an agent. Securely index the organization’s internal documentation to the agent’s datastore. Send users’ queries to the agent and return the agent’s grounded responses to the users.

  • 47

    (Q#297) あなたは、ユーザー体験を向上させるために画像内の商品を自動的に分類したいと考えているeコマース企業に勤めています。あなたは、様々なユニークな商品を描いたラベル付き画像の膨大なデータセットを持っています。あなたは、拡張性があり、効果的で、迅速に展開できるカスタム商品を識別するソリューションを実装する必要があります。どうすればよいでしょうか? You work for an ecommerce company that wants to automatically classify products in images to improve user experience. You have a substantial dataset of labeled images depicting various unique products. You need to implement a solution for identifying custom products that is scalable, effective, and can be rapidly deployed. What should you do?

    Use AutoML Vision to train a model using the image dataset.

  • 48

    (Q#298) あなたのチームは、機密性の高い患者情報を処理するヘルスケア企業の顧客サポートチャットボットを開発しています。データを保存または分析する前に、顧客との会話中に取得した個人を特定できる情報(PII)がすべて保護されていることを確認する必要があります。あなたは何をすべきでしょうか? Your team is developing a customer support chatbot for a healthcare company that processes sensitive patient information. You need to ensure that all personally identifiable information (PII) captured during customer conversations is protected prior to storing or analyzing the data. What should you do?

    Use the DLP API to scan and de-identify PII in chatbot conversations before storing the data.

  • 49

    (Q#299) あなたのチームは、特定のドメインに対して、より小さな、抽出されたLLMを開発する実験を行っている。抽出したLLMのいくつかのバリエーションを使用してデータセットに対してバッチ推論を実行し、バッチ推論出力をクラウドストレージに保存しました。既存のVertex AIパイプラインと統合する評価ワークフローを作成し、アーティファクトを追跡しながらLLMバージョンのパフォーマンスを評価する必要があります。どうすればよいでしょうか? Your team is experimenting with developing smaller, distilled LLMs for a specific domain. You have performed batch inference on a dataset by using several variations of your distilled LLMs and stored the batch inference outputs in Cloud Storage. You need to create an evaluation workflow that integrates with your existing Vertex AI pipeline to assess the performance of the LLM versions while also tracking artifacts. What should you do?

    Create a custom Vertex AI Pipelines component that reads the batch inference outputs from Cloud Storage, calculates evaluation metrics, and writes the results to a BigQuery table.

  • 50

    (Q#300) あなたは銀行に勤めている。クラウドストレージに保存されている非構造化データを使用して、クレジットカード取引が不正かどうかを予測するモデルをトレーニングする必要があります。BigQueryでの分析を容易にするために、データを構造化フォーマットに変換する必要があります。会社のポリシーでは、個人を特定できる情報(PII)を含むデータをクラウドストレージに残す必要があります。分析に必要なデータの価値を維持したまま、スケーラブルなソリューションを実装する必要があります。どうすればよいでしょうか。 You work for a bank. You need to train a model by using unstructured data stored in Cloud Storage that predicts whether credit card transactions are fraudulent. The data needs to be converted to a structured format to facilitate analysis in BigQuery. Company policy requires that data containing personally identifiable information (PII) remain in Cloud Storage. You need to implement a scalable solution that preserves the data’s value for analysis. What should you do?

    Use the DLP API to de-identify the sensitive data before loading it into BigQuery.