ログイン

PMLE07

PMLE07
39問 • 8ヶ月前
  • ユーザ名非公開
  • 通報

    問題一覧

  • 1

    (Q#301) あなたは銀行のMLエンジニアです。融資の承認、与信限度額、金利に関するAI主導の決定について、透明性が高く理解しやすい説明を提供するソリューションを構築する必要がある。あなたは、このシステムを最小限の運用オーバーヘッドで構築したいと考えています。どうすればいいでしょうか? You are an ML engineer at a bank. You need to build a solution that provides transparent and understandable explanations for AI-driven decisions for loan approvals, credit limits, and interest rates. You want to build this system to require minimal operational overhead. What should you do?

    Use Vertex Explainable AI to generate feature attributions, and use feature-based explanations for your models.

  • 2

    (Q#302) あなたは、請求書や領収書から情報を抽出するアプリケーションを構築しています。このアプリケーションを最小限のカスタムコードとトレーニングで実装したいと考えています。どうすればよいでしょうか? You are building an application that extracts information from invoices and receipts. You want to implement this application with minimal custom code and training. What should you do?

    Use the Cloud Document AI API to extract information from the invoices and receipts.

  • 3

    (Q#303) あなたは、ユーザーがデータベースから映画を検索できるストリーミング映画プラットフォームを運営するメディア企業に勤めています。既存の検索アルゴリズムは、結果を返すためにキーワードマッチを使用しています。最近、俳優、ジャンル、監督などの映画のメタデータを含む複雑なセマンティッククエリを使用した検索が増えていることを確認しました。 あなたは、より良い結果を提供する刷新された検索ソリューションを構築する必要があり、この概念実証をできるだけ早く構築する必要があります。どのように検索プラットフォームを構築すべきか? You work for a media company that operates a streaming movie platform where users can search for movies in a database. The existing search algorithm uses keyword matching to return results. Recently, you have observed an increase in searches using complex semantic queries that include the movies’ metadata such as the actor, genre, and director. You need to build a revamped search solution that will provide better results, and you need to build this proof of concept as quickly as possible. How should you build the search platform?

    Configure Vertex AI Vector Search as the search platform’s backend.

  • 4

    (Q#304) あなたは人気の動画ストリーミング・プラットフォームで働くAIエンジニアです。あなたはPyTorchを使って、顧客の解約を予測する分類モデルを構築しました。毎週、顧客維持チームは、解約のリスクがあると特定された顧客に、パーソナライズされたオファーを連絡することを計画しています。あなたは、メンテナンスの労力を最小限に抑えながらモデルを展開したいと考えています。どうすればよいでしょうか? You are an AI engineer that works for a popular video streaming platform. You built a classification model using PyTorch to predict customer churn. Each week, the customer retention team plans to contact customers that have been identified as at risk of churning with personalized offers. You want to deploy the model while minimizing maintenance effort. What should you do?

    Deploy the model to a Vertex AI endpoint, and configure the model for batch prediction. Schedule the batch prediction to run weekly.

  • 5

    (Q#305) 貴社は最近、いくつかのMLモデルをGoogle Cloudに移行しました。Vertex AIでモデルの開発を始めました。モデルの成果物とモデルの系譜を追跡するシステムを実装する必要があります。将来のモデルにも再利用できる、シンプルで効果的なソリューションを作りたいと考えています。どうすればよいでしょうか? Your company recently migrated several of is ML models to Google Cloud. You have started developing models in Vertex AI. You need to implement a system that tracks model artifacts and model lineage. You want to create a simple, effective solution that can also be reused for future models. What should you do?

    Use a combination of Vertex AI Pipelines and the Vertex AI SDK to integrate metadata tracking into the ML workflow.

  • 6

    (Q#306) あなたは大手小売企業に勤めており、顧客離れを予測するモデルを構築する必要があります。この会社には、顧客のデモグラフィック、購買履歴、Webサイトのアクティビティなど、過去の顧客データのデータセットがあります。あなたはBigQuery MLでモデルを作成し、そのパフォーマンスを徹底的に評価する必要があります。何をすべきでしょうか? You work for a large retailer, and you need to build a model to predict customer churn. The company has a dataset of historical customer data, including customer demographics purchase history, and website activity. You need to create the model in BigQuery ML and thoroughly evaluate its performance. What should you do?

    Create a logistic regression model in BigQuery ML. Use the ML.CONFUSION_MATRIX function to evaluate the model performance.

  • 7

    (Q#307) あなたは、人気の写真共有ソーシャルメディアプラットフォームのAIアーキテクトです。あなたの組織のコンテンツモデレーションチームは現在、ユーザーがアップロードした画像をスキャンし、露骨な画像を手動で削除しています。あなたは、ユーザーが露骨な画像をアップロードするのを自動的に防ぐAIサービスを実装したいと考えています。どうすればいいでしょうか? You are an AI architect at a popular photo sharing social media platform. Your organization's content moderation team currently scans images uploaded by users and removes explicit images manually. You want to implement an AI service to automatically prevent users from uploading explicit images. What should you do?

    Create a dataset using manually labeled images. Ingest this dataset into AutoML. Train an image classification model and deploy into a Vertex AI endpoint. Integrate this endpoint with the image upload process to identify and block inappropriate uploads. Monitor predictions and periodically retrain the model.

  • 8

    (Q#308) あなたはある銀行のMLエンジニアである。銀行のリーダーシップチームは貸し倒れを減らしたい。銀行にはBigQueryに保存された貸し倒れに関する履歴データがあります。あなたはAIを使用してローン申請プロセスをサポートするよう依頼されています。コンプライアンス上の理由から、融資拒否の説明を提供する必要があります。何をすべきでしょうか? You are an ML engineer at a bank. The bank's leadership team wants to reduce the number of loan defaults. The bank has labeled historic data about loan defaults stored in BigQuery. You have been asked to use AI to support the loan application process. For compliance reasons, you need to provide explanations for loan rejections. What should you do?

    Train and deploy a BigQuery ML classification model trained on historic loan default data. Enable feature-based explanations for each prediction. Report the prediction, probability of default, and feature attributions for each loan application.

  • 9

    (Q#309) あなたは、顧客のフィードバックを分析して、肯定的、否定的、中立的な経験を識別する自然言語処理モデルを開発しています。テスト段階で、このモデルが特定の人口統計グループに対して著しい偏りを示し、歪んだ分析結果になっていることに気づきました。あなたは、グーグルの責任あるAIプラクティスに従って、この問題に対処したいと考えています。どうすべきでしょうか? You are developing a natural language processing model that analyzes customer feedback to identify positive, negative, and neutral experiences. During the testing phase, you notice that the model demonstrates a significant bias against certain demographic groups, leading to skewed analysis results. You want to address this issue following Google's responsible AI practices. What should you do?

    Audit the training dataset to identify underrepresented groups and augment the dataset with additional samples before retraining the model.

  • 10

    (Q#310) あなたは最近、Google Cloudに画像分類モデルをデプロイしました。Cloud Buildを使用して、モデルのCI/CDパイプラインを構築しました。効率的な再トレーニングプロセスを使用することで、モデルがデータやコードの変更に対して最新の状態に保たれるようにする必要があります。何をすべきでしょうか? You recently deployed an image classification model on Google Cloud. You used Cloud Build to build a CI/CD pipeline for the model. You need to ensure that the model stays up-to-date with data and code changes by using an efficient retraining process. What should you do?

    Configure a Git repository trigger in Cloud Build to initiate retraining when there are new code commits to the model's repository and a Pub/Sub trigger when there is new data in Cloud Storage.

  • 11

    (Q#311) あなたはデータサイエンスチームを率いて、複数の実験を実行する計算集約型のプロジェクトに取り組んでいます。チームは地理的に分散しており、最も効果的なリアルタイムのコラボレーションと迅速な実験を提供するプラットフォームが必要です。実験サイクルを高速化するためにGPUを追加する予定ですが、インフラを手動でセットアップする必要は避けたいと考えています。Googleが推奨するアプローチを使いたいと考えています。どうすればいいでしょうか? You lead a data science team that is working on a computationally intensive project involving running several experiments. Your team is geographically distributed and requires a platform that provides the most effective real-time collaboration and rapid experimentation. You plan to add GPUs to speed up your experimentation cycle, and you want to avoid having to manually set up the infrastructure. You want to use the Google-recommended approach. What should you do?

    Use Colab Enterprise with Cloud Storage for data management. Use a Git repository for version control.

  • 12

    (Q#312) You need to train a ControlNet model with Stable Diffusion XL for an image editing use case. You want to train this model as quickly as possible. Which hardware configuration should you choose to train your model?

    Configure one a2-highgpu-1g instance with an NVIDIA A100 GPU with 80 GB of RAM. Use bfloat16 quantization during model training.

  • 13

    (Q#313) あなたは、Apache Sparkを使用して膨大なデータセットを分析するミッションクリティカルなプロジェクトのリードMLエンジニアです。あなたは、チームがJupyterノートブックを使ってSparkモデルを迅速にプロトタイプできる堅牢な環境を構築する必要があります。これを実現する最速の方法は何でしょうか? You are the lead ML engineer on a mission-critical project that involves analyzing massive datasets using Apache Spark. You need to establish a robust environment that allows your team to rapidly prototype Spark models using Jupyter notebooks. What is the fastest way to achieve this?

    Set up a Vertex AI Workbench instance with a Spark kernel.

  • 14

    (Q#314) あなたはCloud TPUで大規模なディープラーニングモデルをトレーニングしています。Tensorboardでトレーニングの進捗を監視しているときに、TPUの利用率が一貫して低く、トレーニングのステップが完了してから次のステップが開始されるまでに遅延があることがわかりました。あなたは、TPUの利用率とトレーニング全体のパフォーマンスを改善したいと考えています。この問題にどのように対処すべきでしょうか? You are training a large-scale deep learning model on a Cloud TPU. While monitoring the training progress through Tensorboard, you observe that the TPU utilization is consistently low and there are delays between the completion of one training step and the start of the next step. You want to improve TPU utilization and overall training performance. How should you address this issue?

    Implement tf.data.Detaset.prefetch in the data pipeline.

  • 15

    (Q#315) あなたは、ストリーミングデータセットとバッチデータセットの両方を処理・分析するMLパイプラインを構築しています。パイプラインは、一貫性のある自動化された方法で、データ検証、前処理、モデルトレーニング、モデルデプロイメントを処理する必要があります。効率的でスケーラブルなソリューションを設計し、モデル・トレーニングのメタデータを取得し、簡単に再現できるようにしたい。パイプラインのさまざまな部分でカスタムコンポーネントを再利用できるようにしたい。どうすればよいでしょうか? You are building an ML pipeline to process and analyze both streaming and batch datasets. You need the pipeline to handle data validation, preprocessing, model training, and model deployment in a consistent and automated way. You want to design an efficient and scalable solution that captures model training metadata and is easily reproducible. You want to be able to reuse custom components for different parts of your pipeline. What should you do?

    Implement an orchestration framework such as Kubeflow Pipelines or Vertex AI Pipelines.

  • 16

    (Q#316) あなたはVertex AI上でMLモデルを開発していますが、規制遵守のために特定の解釈可能性要件を満たす必要があります。精度と解釈可能性を最大化するために、モデル・アーキテクチャとモデリング技法を組み合わせて使用したいと考えています。どのようにモデルを作成すべきでしょうか? You are developing an ML model on Vertex AI that needs to meet specific interpretability requirements for regulatory compliance. You want to use a combination of model architectures and modeling techniques to maximize accuracy and interpretability. How should you create the model?

    Use a boosted decision tree-based model architecture, and use SHAP values for interpretability.

  • 17

    (Q#317) あなたは、Vertex AIを使用して大手金融機関の不正検知モデルを開発しました。このモデルは高い精度を達成していますが、利害関係者は、顧客属性に基づくモデルの偏りの可能性を懸念しています。あなたは、モデルの意思決定プロセスに関する洞察を提供し、公正性の問題を特定するよう求められました。あなたは何をすべきでしょうか? You have developed a fraud detection model for a large financial institution using Vertex AI. The model achieves high accuracy, but the stakeholders are concerned about the model's potential for bias based on customer demographics. You have been asked to provide insights into the model's decision-making process and identify any fairness issues. What should you do?

    Use feature attribution in Vertex AI to analyze model predictions and the impact of each feature on the model's predictions.

  • 18

    (Q#318) Vertex AIを使用してMLモデルを開発し、Vertex AIエンドポイントに配備しました。新しいデータが利用可能になると、モデルの再トレーニングが必要になることが予想されます。Vertex AI モデル監視ジョブを構成しました。モデルの特徴属性ドリフトを監視し、継続的な評価指標を確立する必要があります。何をすべきでしょうか? You developed an ML model using Vertex AI and deployed it to a Vertex AI endpoint. You anticipate that the model will need to be retrained as new data becomes available. You have configured a Vertex AI Model Monitoring Job. You need to monitor the model for feature attribution drift and establish continuous evaluation metrics. What should you do?

    Enable request-response logging for the Vertex AI endpoint, and set up alerts using Cloud Logging. Review the feature attributions in the Google Cloud console when an alert is received.

  • 19

    (Q#319) あなたは投資銀行でMLの研究者として働いており、Gemma大規模言語モデル(LLM)を実験しています。あなたはこのモデルを社内のユースケースに導入する予定です。あなたはモデルの基礎となるインフラストラクチャを完全に制御し、モデルの推論時間を最小化する必要があります。このタスクにはどのサービング構成を使用すべきでしょうか? You work as an ML researcher at an investment bank, and you are experimenting with the Gemma large language model (LLM). You plan to deploy the model for an internal use case. You need to have full control of the model's underlying infrastructure and minimize the model's inference time. Which serving configuration should you use for this task?

    Deploy the model on a Google Kubernetes Engine (GKE) cluster by using the deployment options in Model Garden.

  • 20

    (Q#320) あなたはMLの研究者で、複数の深層学習ベースのモデル・アーキテクチャとハイパーパラメータ構成を評価しています。各モデルの反復の進捗を追跡し、主要なメトリクスを視覚化し、モデルの内部を洞察し、トレーニングのパフォーマンスを最適化するための堅牢なソリューションを実装する必要があります。 このソリューションには、モデルを比較するための最も効率的で強力なアプローチと、最も強力な可視化機能を持たせる必要があります。このソリューションにどのような強気で臨むべきでしょうか? You are an ML researcher and are evaluating multiple deep learning-based model architectures and hyperparameter configurations. You need to implement a robust solution to track the progress of each model iteration, visualize key metrics, gain insights into model internals, and optimize training performance. You want your solution to have the most efficient and powerful approach to compare the models and have the strongest visualization abilities. How should you bull this solution?

    Use Vertex AI Experiments for tracking iterations and comparison, and use Vertex AI TensorBoard for visualization and analysis of the training metrics and model architecture.

  • 21

    (Q#321) あなたはクレジットカードの不正取引を検知するモデルを開発しています。不正取引を1件でも見逃すと、クレジットカード保有者に深刻な影響が及ぶ可能性があるため、検出の優先順位を決める必要があります。AutoML を使用して、ユーザーのプロファイル情報とクレジットカードの取引データからモデルを学習します。初期モデルをトレーニングした後、モデルが多くの不正取引を検出できないことに気付きました。検出される不正取引の数をどのように増やすべきでしょうか? You are developing a model to detect fraudulent credit card transactions. You need to prioritize detection, because missing even one fraudulent transaction could severely impact the credit card holder. You used AutoML to train a model on users' profile information and credit card transaction data. After training the initial model, you notice that the model is failing to detect many fraudulent transactions. How should you increase the number of fraudulent transactions that are detected?

    Decrease the probability threshold to classify a fraudulent transaction.

  • 22

    (Q#322) あなたは、従来のチャット、音声、ビデオ会議を1つのプラットフォームに統合したクラウドベースのコミュニケーション・プラットフォームを管理する組織で働いています。音声録音はクラウドストレージに保存されています。すべての録音は、サンプルレートが16kHzで、長さが1分以上です。あなたは、通話要約や感情分析などの将来のアプリケーションのために、音声通話録音を自動的にテキストに書き起こす新しい機能をプラットフォームに実装する必要があります。Googleが推奨するプラクティスに従いつつ、音声通話の書き起こし機能をどのように実装すべきでしょうか? You work at an organization that maintains a cloud-based communication platform that integrates conventional chat, voice, and video conferencing into one platform. The audio recordings are stored in Cloud Storage. All recordings have a 16 kHz sample rate and are more than one minute long. You need to implement a new feature in the platform that will automatically transcribe voice call recordings into text for future applications, such as call summarization and sentiment analysis. How should you implement the voice call transcription feature while following Google-recommended practices?

    Use the original audio sampling rate, and transcribe the audio by using the Speech-to-Text API with asynchronous recognition.

  • 23

    (Q#323) 複数のバージョンのMLモデルを作成し、Vertex AI Model Registryにインポートしました。A/Bテストを実行して、最もシンプルなアプローチで最もパフォーマンスの高いモデルを特定したいとします。どうすればよいでしょうか? You have created multiple versions of an ML model and have imported them to Vertex AI Model Registry. You want to perform A/B testing to identify the best performing model using the simplest approach. What should you do?

    Split incoming traffic to distribute prediction requests among the versions. Monitor the performance of each version using Vertex AI's built-in monitoring tools.

  • 24

    (Q#324) 小さなデータセットでXGBoostモデルを学習する必要があります。トレーニングコードにはカスタム依存関係が必要です。Vertex AIカスタムトレーニングジョブをセットアップする必要があります。Googleが推奨するプラクティスに従いつつ、トレーニングジョブの起動時間を最小限に抑えたい。どうすればよいでしょうか? You need to train an XGBoost model on a small dataset. Your training code requires custom dependencies. You need to set up a Vertex AI custom training job. You want to minimize the startup time of the training job while following Google-recommended practices. What should you do?

    Store the data in a Cloud Storage bucket, and create a custom container with your training application and its custom dependencies. In your training application, read the data from Cloud Storage and train the model.

  • 25

    (Q#325) あなたは、サブスクリプションサービスの顧客解約を予測するMLモデルを構築しています。過去のデータを使用して Vertex AI でモデルをトレーニングし、リアルタイム予測のために Vertex AI エンドポイントにデプロイしました。数週間後、AUC(ROC曲線下面積)で測定されるモデルのパフォーマンスが、トレーニング時のパフォーマンスと比較して、本番環境では大幅に低下していることに気付きました。この問題をどのようにトラブルシューティングすべきでしょうか? You are building an ML model to predict customer churn for a subscription service. You have trained your model on Vertex AI using historical data, and deployed it to a Vertex AI endpoint for real-time predictions. After a few weeks, you notice that the model's performance, measured by AUC (area under the ROC curve), has dropped significantly in production compared to its performance during training. How should you troubleshoot this problem?

    Monitor the training/serving skew of feature values for requests sent to the endpoint.

  • 26

    (Q#326) あなたは人気の決済アプリを管理する組織で働いています。あなたはscikit-learnを使用して不正取引検出モデルを構築し、Vertex AIエンドポイントにデプロイしました。エンドポイントは現在、2つのvCPUと8GBのメモリを搭載した1台のe2-standard-2マシンを使用しています。あなたは、ゲートウェイ上のトラフィックがエンドポイントの容量の4倍以上に変動していることを発見しました。最も費用対効果の高い方法でこの問題に対処する必要があります。どうすればよいでしょうか。 You work at an organization that manages a popular payment app. You built a fraudulent transaction detection model by using scikit-learn and deployed it to a Vertex AI endpoint. The endpoint is currently using 1 e2-standard-2 machine with 2 vCPUs and 8 GB of memory. You discover that traffic on the gateway fluctuates to four times more than the endpoint's capacity. You need to address this issue by using the most cost-effective approach. What should you do?

    Increase the number of maximum replicas to 6 nodes, each with 1 e2-standard-2 machine.

  • 27

    (Q#327) あなたは、ユーザーの文体を反映し、有名な作家の文体が検出された場合はその作家を模倣するように、生成された応答を動的に適応させることができるAIテキストジェネレータを開発しています。さまざまな作家の作品の大規模なデータセットがあり、カスタムVM上でモデルをホストする予定です。最も効果的なモデルを使用したい。どうすればいいでしょうか? You are developing an AI text generator that will be able to dynamically adapt its generated responses to mirror the writing style of the user and mimic famous authors if their style is detected. You have a large dataset of various authors' works, and you plan to host the model on a custom VM. You want to use the most effective model. What should you do?

    Fine-tune Llama 3 from Model Garden on Vertex AI Pipelines.

  • 28

    (Q#328) あなたは、オンプレミスからGoogle Cloudに移行している小さな会社のリードMLアーキテクトです。あなたの会社には、クラウドインフラストラクチャのリソースと専門知識が限られています。Google Cloudからできるだけ早くモデルを提供したい。追加リソースを必要とせず、スケーラブルで信頼性が高く、費用対効果の高いソリューションを使用したい。どうすればよいでしょうか? You are a lead ML architect at a small company that is migrating from on-premises to Google Cloud. Your company has limited resources and expertise in cloud infrastructure. You want to serve your models from Google Cloud as soon as possible. You want to use a scalable, reliable, and cost-effective solution that requires no additional resources. What should you do?

    Deploy your models on Vertex AI endpoints.

  • 29

    (Q#329) あなたは大規模言語モデル(LLM)を使用する会話アプリケーションをデプロイしました。このアプリケーションには1,000人のユーザがいます。あなたは、モデルの応答の冗長性と正確性に関するユーザーフィードバックを収集します。ユーザーフィードバックは、回答が事実上正しいことを示していますが、ユーザーは質問のタイプによって異なるレベルの冗長性を求めています。あなたは、モデルがよりユーザーの期待に沿った回答を返すことを望み、スケーラブルなソリューションを使用したいと考えています。どうすればよいでしょうか? You deployed a conversational application that uses a large language model (LLM). The application has 1,000 users. You collect user feedback about the verbosity and accuracy of the model 's responses. The user feedback indicates that the responses are factually correct but users want different levels of verbosity depending on the type of question. You want the model to return responses that are more consistent with users' expectations, and you want to use a scalable solution. What should you do?

    Ask users to indicate all scenarios where they expect concise responses versus verbose responses. Modify the application 's prompt to include these scenarios and their respective verbosity levels. Re-evaluate the verbosity of responses with updated prompts.

  • 30

    (Q#330) Vertex AIを使用してMLモデルとデータセットを管理しています。最近、モデルの1つを更新しました。新しいバージョンと以前のバージョンを追跡して比較し、データセットのバージョニングを組み込みたいと考えています。どうすればよいでしょうか? You are using Vertex AI to manage your ML models and datasets. You recently updated one of your models. You want to track and compare the new version with the previous one and incorporate dataset versioning. What should you do?

    Use Vertex AI Experiments to track and compare model artifacts and versions, and use Vertex AI managed datasets to manage dataset versioning.

  • 31

    (Q#331) Vertex AIに導入された顧客解約予測モデルの再トレーニングポリシーを作成しています。新しいトレーニングデータは毎週追加されます。あなたは、コストと労力を最小限に抑えるモデル再トレーニングプロセスを実装したいと考えています。何をすべきでしょうか? You are creating a retraining policy for a customer churn prediction model deployed in Vertex AI. New training data is added weekly. You want to implement a model retraining process that minimizes cost and effort. What should you do?

    Retrain the model when a significant shift in the distribution of customer attributes is detected in the production data compared to the training data.

  • 32

    (Q#332) あなたはアパレル小売企業のAIエンジニアです。販売チームは過去5~6年にわたり、季節ごとの販売パターンを観察してきました。販売チームはCSVファイルに保存された毎週の販売データを分析し、視覚化しています。あなたは、在庫と人員の作業負荷を最適化するために、将来のシーズンの週間売上を推定するよう求められています。あなたは最も効率的なアプローチを使いたいと考えています。どうすればよいでしょうか? You are an AI engineer with an apparel retail company. The sales team has observed seasonal sales patterns over the past 5-6 years. The sales team analyzes and visualizes the weekly sales data stored in CSV files. You have been asked to estimate weekly sales for future seasons to optimize inventory and personnel workloads. You want to use the most efficient approach. What should you do?

    Upload the files into Cloud Storage. Use Python to preprocess and load the tabular data into BigQuery. Use time series forecasting models to predict weekly sales.

  • 33

    (Q#333) 貴社のビジネス関係者は、事業戦略に反映させるために、顧客離れの要因を理解したいと考えています。あなたは、モデル結果の単純な解釈可能性を優先した顧客離反予測モデルを構築する必要があります。どの特徴が予測につながったかを説明できるMLフレームワークとモデリング手法を選択する必要があります。あなたは何をすべきでしょうか? Your company's business stakeholders want to understand the factors driving customer churn to inform their business strategy. You need to build a customer churn prediction model that prioritizes simple interpretability of your model's results. You need to choose the ML framework and modeling technique that will explain which features led to the prediction. What should you do?

    Build a logistic regression model in scikit-learn, and interpret the model's output coefficients to understand feature impact.

  • 34

    (Q#334) あなたは、本番環境に配備された Vertex AI モデルの管理と監視を担当しています。モデルのパフォーマンスが低下した場合、自動的に再トレーニングを行いたいと考えています。どうすればよいでしょうか。 You are responsible for managing and monitoring a Vertex AI model that is deployed in production. You want to automatically retrain the model when its performance deteriorates. What should you do?

    Create a Vertex AI Model Monitoring job to track the model's performance with production data, and trigger retraining when specific metrics drop below predefined thresholds.

  • 35

    (Q#335) あなたは最近、Jupyterノートブックで新しいMLモデルを開発しました。あなたは、モデル成果物のバージョンと系統を追跡する、信頼性と再現性のあるモデル学習プロセスを確立したいと考えています。毎週モデルを再トレーニングする予定です。トレーニングプロセスをどのように運用すべきでしょうか? You have recently developed a new ML model in a Jupyter notebook. You want to establish a reliable and repeatable model training process that tracks the versions and lineage of your model artifacts. You plan to retrain your model weekly. How should you operationalize your training process?

    1. Create a managed pipeline in Vertex AI Pipelines to train your model by using a Vertex AI CustomTrainingJobOp component. 2. Use the ModelUploadOp component to upload your model to Vertex AI Model Registry. 3. Use Cloud Scheduler and Cloud Run functions to run the Vertex AI pipeline weekly.

  • 36

    (Q#336) Vertex AIを使用してカスタムMLモデルを開発し、オンライン配信用に展開したいと考えています。モデルが高いスループットを処理できるようにしながら、待ち時間を最小限に抑えることで、モデルの配信パフォーマンスを最適化する必要があります。最もシンプルなソリューションを使用したい。どうすればよいでしょうか? You have developed a custom ML model using Vertex AI and want to deploy it for online serving. You need to optimize the model's serving performance by ensuring that the model can handle high throughput while minimizing latency. You want to use the simplest solution. What should you do?

    Deploy the model to a Vertex AI endpoint resource to automatically scale the serving backend based on the throughput. Configure the endpoint's autoscaling settings to minimize latency.

  • 37

    (Q#337) あなたの会社では、ベンダー向けに製品要約を作成する必要があります。あなたは、テキスト要約のためのモデルガーデンの基礎モデルを評価し、要約のスタイルがあなたの会社のブランドボイスと一致していないことに気づきました。このLLMベースの要約モデルをどのように改善すれば、ビジネス目標をよりよく満たすことができますか? Your company needs to generate product summaries for vendors. You evaluate a foundation model from Model Garden for text summarization and find the style of the summaries are not aligned with your company's brand voice. How should you improve this LLM-based summarization model to better meet your business objectives?

    Fine-tune the model using a company-specific dataset.

  • 38

    (Q#338) あなたは、画像を前処理し、オブジェクト検出モデルを学習するカスタムVertex AIパイプラインジョブを構築しました。このパイプラインは現在、NVIDIA Tesla V100 GPUを1基搭載したn1-standard-8マシンを1台使用しています。モデルの精度を損なうことなく、モデルのトレーニング時間を短縮したい。どうすればよいでしょうか? You built a custom Vertex AI pipeline job that preprocesses images and trains an object detection model. The pipeline currently uses 1 n1-standard-8 machine with 1 NVIDIA Tesla V100 GPU. You want to reduce the model training time without compromising model accuracy. What should you do?

    Update the WorkerPoolSpec to use a machine with 24 vCPUs and 3 NVIDIA Tesla V100 GPUs.

  • 39

    (Q#339) あなたはSQLアナリストです。クラウドストレージに保存されたTensorFlowの顧客セグメンテーションモデルを利用する必要がある。最もシンプルで効率的なアプローチを使用したい。どうすればいいでしょうか? You are a SQL analyst. You need to utilize a TensorFlow customer segmentation model stored In Cloud Storage. You want to use the simplest and most efficient approach. What should you do?

    Convert the model into a BigQuery ML model, and use SQL for inference.

  • PDE_page4

    PDE_page4

    ユーザ名非公開 · 50問 · 1年前

    PDE_page4

    PDE_page4

    50問 • 1年前
    ユーザ名非公開

    PDE_page5

    PDE_page5

    ユーザ名非公開 · 50問 · 1年前

    PDE_page5

    PDE_page5

    50問 • 1年前
    ユーザ名非公開

    PDE_page6

    PDE_page6

    ユーザ名非公開 · 50問 · 1年前

    PDE_page6

    PDE_page6

    50問 • 1年前
    ユーザ名非公開

    PDE_page7

    PDE_page7

    ユーザ名非公開 · 19問 · 1年前

    PDE_page7

    PDE_page7

    19問 • 1年前
    ユーザ名非公開

    PMLE04

    PMLE04

    ユーザ名非公開 · 50問 · 8ヶ月前

    PMLE04

    PMLE04

    50問 • 8ヶ月前
    ユーザ名非公開

    PMLE05

    PMLE05

    ユーザ名非公開 · 50問 · 8ヶ月前

    PMLE05

    PMLE05

    50問 • 8ヶ月前
    ユーザ名非公開

    PMLE06

    PMLE06

    ユーザ名非公開 · 50問 · 8ヶ月前

    PMLE06

    PMLE06

    50問 • 8ヶ月前
    ユーザ名非公開

    問題一覧

  • 1

    (Q#301) あなたは銀行のMLエンジニアです。融資の承認、与信限度額、金利に関するAI主導の決定について、透明性が高く理解しやすい説明を提供するソリューションを構築する必要がある。あなたは、このシステムを最小限の運用オーバーヘッドで構築したいと考えています。どうすればいいでしょうか? You are an ML engineer at a bank. You need to build a solution that provides transparent and understandable explanations for AI-driven decisions for loan approvals, credit limits, and interest rates. You want to build this system to require minimal operational overhead. What should you do?

    Use Vertex Explainable AI to generate feature attributions, and use feature-based explanations for your models.

  • 2

    (Q#302) あなたは、請求書や領収書から情報を抽出するアプリケーションを構築しています。このアプリケーションを最小限のカスタムコードとトレーニングで実装したいと考えています。どうすればよいでしょうか? You are building an application that extracts information from invoices and receipts. You want to implement this application with minimal custom code and training. What should you do?

    Use the Cloud Document AI API to extract information from the invoices and receipts.

  • 3

    (Q#303) あなたは、ユーザーがデータベースから映画を検索できるストリーミング映画プラットフォームを運営するメディア企業に勤めています。既存の検索アルゴリズムは、結果を返すためにキーワードマッチを使用しています。最近、俳優、ジャンル、監督などの映画のメタデータを含む複雑なセマンティッククエリを使用した検索が増えていることを確認しました。 あなたは、より良い結果を提供する刷新された検索ソリューションを構築する必要があり、この概念実証をできるだけ早く構築する必要があります。どのように検索プラットフォームを構築すべきか? You work for a media company that operates a streaming movie platform where users can search for movies in a database. The existing search algorithm uses keyword matching to return results. Recently, you have observed an increase in searches using complex semantic queries that include the movies’ metadata such as the actor, genre, and director. You need to build a revamped search solution that will provide better results, and you need to build this proof of concept as quickly as possible. How should you build the search platform?

    Configure Vertex AI Vector Search as the search platform’s backend.

  • 4

    (Q#304) あなたは人気の動画ストリーミング・プラットフォームで働くAIエンジニアです。あなたはPyTorchを使って、顧客の解約を予測する分類モデルを構築しました。毎週、顧客維持チームは、解約のリスクがあると特定された顧客に、パーソナライズされたオファーを連絡することを計画しています。あなたは、メンテナンスの労力を最小限に抑えながらモデルを展開したいと考えています。どうすればよいでしょうか? You are an AI engineer that works for a popular video streaming platform. You built a classification model using PyTorch to predict customer churn. Each week, the customer retention team plans to contact customers that have been identified as at risk of churning with personalized offers. You want to deploy the model while minimizing maintenance effort. What should you do?

    Deploy the model to a Vertex AI endpoint, and configure the model for batch prediction. Schedule the batch prediction to run weekly.

  • 5

    (Q#305) 貴社は最近、いくつかのMLモデルをGoogle Cloudに移行しました。Vertex AIでモデルの開発を始めました。モデルの成果物とモデルの系譜を追跡するシステムを実装する必要があります。将来のモデルにも再利用できる、シンプルで効果的なソリューションを作りたいと考えています。どうすればよいでしょうか? Your company recently migrated several of is ML models to Google Cloud. You have started developing models in Vertex AI. You need to implement a system that tracks model artifacts and model lineage. You want to create a simple, effective solution that can also be reused for future models. What should you do?

    Use a combination of Vertex AI Pipelines and the Vertex AI SDK to integrate metadata tracking into the ML workflow.

  • 6

    (Q#306) あなたは大手小売企業に勤めており、顧客離れを予測するモデルを構築する必要があります。この会社には、顧客のデモグラフィック、購買履歴、Webサイトのアクティビティなど、過去の顧客データのデータセットがあります。あなたはBigQuery MLでモデルを作成し、そのパフォーマンスを徹底的に評価する必要があります。何をすべきでしょうか? You work for a large retailer, and you need to build a model to predict customer churn. The company has a dataset of historical customer data, including customer demographics purchase history, and website activity. You need to create the model in BigQuery ML and thoroughly evaluate its performance. What should you do?

    Create a logistic regression model in BigQuery ML. Use the ML.CONFUSION_MATRIX function to evaluate the model performance.

  • 7

    (Q#307) あなたは、人気の写真共有ソーシャルメディアプラットフォームのAIアーキテクトです。あなたの組織のコンテンツモデレーションチームは現在、ユーザーがアップロードした画像をスキャンし、露骨な画像を手動で削除しています。あなたは、ユーザーが露骨な画像をアップロードするのを自動的に防ぐAIサービスを実装したいと考えています。どうすればいいでしょうか? You are an AI architect at a popular photo sharing social media platform. Your organization's content moderation team currently scans images uploaded by users and removes explicit images manually. You want to implement an AI service to automatically prevent users from uploading explicit images. What should you do?

    Create a dataset using manually labeled images. Ingest this dataset into AutoML. Train an image classification model and deploy into a Vertex AI endpoint. Integrate this endpoint with the image upload process to identify and block inappropriate uploads. Monitor predictions and periodically retrain the model.

  • 8

    (Q#308) あなたはある銀行のMLエンジニアである。銀行のリーダーシップチームは貸し倒れを減らしたい。銀行にはBigQueryに保存された貸し倒れに関する履歴データがあります。あなたはAIを使用してローン申請プロセスをサポートするよう依頼されています。コンプライアンス上の理由から、融資拒否の説明を提供する必要があります。何をすべきでしょうか? You are an ML engineer at a bank. The bank's leadership team wants to reduce the number of loan defaults. The bank has labeled historic data about loan defaults stored in BigQuery. You have been asked to use AI to support the loan application process. For compliance reasons, you need to provide explanations for loan rejections. What should you do?

    Train and deploy a BigQuery ML classification model trained on historic loan default data. Enable feature-based explanations for each prediction. Report the prediction, probability of default, and feature attributions for each loan application.

  • 9

    (Q#309) あなたは、顧客のフィードバックを分析して、肯定的、否定的、中立的な経験を識別する自然言語処理モデルを開発しています。テスト段階で、このモデルが特定の人口統計グループに対して著しい偏りを示し、歪んだ分析結果になっていることに気づきました。あなたは、グーグルの責任あるAIプラクティスに従って、この問題に対処したいと考えています。どうすべきでしょうか? You are developing a natural language processing model that analyzes customer feedback to identify positive, negative, and neutral experiences. During the testing phase, you notice that the model demonstrates a significant bias against certain demographic groups, leading to skewed analysis results. You want to address this issue following Google's responsible AI practices. What should you do?

    Audit the training dataset to identify underrepresented groups and augment the dataset with additional samples before retraining the model.

  • 10

    (Q#310) あなたは最近、Google Cloudに画像分類モデルをデプロイしました。Cloud Buildを使用して、モデルのCI/CDパイプラインを構築しました。効率的な再トレーニングプロセスを使用することで、モデルがデータやコードの変更に対して最新の状態に保たれるようにする必要があります。何をすべきでしょうか? You recently deployed an image classification model on Google Cloud. You used Cloud Build to build a CI/CD pipeline for the model. You need to ensure that the model stays up-to-date with data and code changes by using an efficient retraining process. What should you do?

    Configure a Git repository trigger in Cloud Build to initiate retraining when there are new code commits to the model's repository and a Pub/Sub trigger when there is new data in Cloud Storage.

  • 11

    (Q#311) あなたはデータサイエンスチームを率いて、複数の実験を実行する計算集約型のプロジェクトに取り組んでいます。チームは地理的に分散しており、最も効果的なリアルタイムのコラボレーションと迅速な実験を提供するプラットフォームが必要です。実験サイクルを高速化するためにGPUを追加する予定ですが、インフラを手動でセットアップする必要は避けたいと考えています。Googleが推奨するアプローチを使いたいと考えています。どうすればいいでしょうか? You lead a data science team that is working on a computationally intensive project involving running several experiments. Your team is geographically distributed and requires a platform that provides the most effective real-time collaboration and rapid experimentation. You plan to add GPUs to speed up your experimentation cycle, and you want to avoid having to manually set up the infrastructure. You want to use the Google-recommended approach. What should you do?

    Use Colab Enterprise with Cloud Storage for data management. Use a Git repository for version control.

  • 12

    (Q#312) You need to train a ControlNet model with Stable Diffusion XL for an image editing use case. You want to train this model as quickly as possible. Which hardware configuration should you choose to train your model?

    Configure one a2-highgpu-1g instance with an NVIDIA A100 GPU with 80 GB of RAM. Use bfloat16 quantization during model training.

  • 13

    (Q#313) あなたは、Apache Sparkを使用して膨大なデータセットを分析するミッションクリティカルなプロジェクトのリードMLエンジニアです。あなたは、チームがJupyterノートブックを使ってSparkモデルを迅速にプロトタイプできる堅牢な環境を構築する必要があります。これを実現する最速の方法は何でしょうか? You are the lead ML engineer on a mission-critical project that involves analyzing massive datasets using Apache Spark. You need to establish a robust environment that allows your team to rapidly prototype Spark models using Jupyter notebooks. What is the fastest way to achieve this?

    Set up a Vertex AI Workbench instance with a Spark kernel.

  • 14

    (Q#314) あなたはCloud TPUで大規模なディープラーニングモデルをトレーニングしています。Tensorboardでトレーニングの進捗を監視しているときに、TPUの利用率が一貫して低く、トレーニングのステップが完了してから次のステップが開始されるまでに遅延があることがわかりました。あなたは、TPUの利用率とトレーニング全体のパフォーマンスを改善したいと考えています。この問題にどのように対処すべきでしょうか? You are training a large-scale deep learning model on a Cloud TPU. While monitoring the training progress through Tensorboard, you observe that the TPU utilization is consistently low and there are delays between the completion of one training step and the start of the next step. You want to improve TPU utilization and overall training performance. How should you address this issue?

    Implement tf.data.Detaset.prefetch in the data pipeline.

  • 15

    (Q#315) あなたは、ストリーミングデータセットとバッチデータセットの両方を処理・分析するMLパイプラインを構築しています。パイプラインは、一貫性のある自動化された方法で、データ検証、前処理、モデルトレーニング、モデルデプロイメントを処理する必要があります。効率的でスケーラブルなソリューションを設計し、モデル・トレーニングのメタデータを取得し、簡単に再現できるようにしたい。パイプラインのさまざまな部分でカスタムコンポーネントを再利用できるようにしたい。どうすればよいでしょうか? You are building an ML pipeline to process and analyze both streaming and batch datasets. You need the pipeline to handle data validation, preprocessing, model training, and model deployment in a consistent and automated way. You want to design an efficient and scalable solution that captures model training metadata and is easily reproducible. You want to be able to reuse custom components for different parts of your pipeline. What should you do?

    Implement an orchestration framework such as Kubeflow Pipelines or Vertex AI Pipelines.

  • 16

    (Q#316) あなたはVertex AI上でMLモデルを開発していますが、規制遵守のために特定の解釈可能性要件を満たす必要があります。精度と解釈可能性を最大化するために、モデル・アーキテクチャとモデリング技法を組み合わせて使用したいと考えています。どのようにモデルを作成すべきでしょうか? You are developing an ML model on Vertex AI that needs to meet specific interpretability requirements for regulatory compliance. You want to use a combination of model architectures and modeling techniques to maximize accuracy and interpretability. How should you create the model?

    Use a boosted decision tree-based model architecture, and use SHAP values for interpretability.

  • 17

    (Q#317) あなたは、Vertex AIを使用して大手金融機関の不正検知モデルを開発しました。このモデルは高い精度を達成していますが、利害関係者は、顧客属性に基づくモデルの偏りの可能性を懸念しています。あなたは、モデルの意思決定プロセスに関する洞察を提供し、公正性の問題を特定するよう求められました。あなたは何をすべきでしょうか? You have developed a fraud detection model for a large financial institution using Vertex AI. The model achieves high accuracy, but the stakeholders are concerned about the model's potential for bias based on customer demographics. You have been asked to provide insights into the model's decision-making process and identify any fairness issues. What should you do?

    Use feature attribution in Vertex AI to analyze model predictions and the impact of each feature on the model's predictions.

  • 18

    (Q#318) Vertex AIを使用してMLモデルを開発し、Vertex AIエンドポイントに配備しました。新しいデータが利用可能になると、モデルの再トレーニングが必要になることが予想されます。Vertex AI モデル監視ジョブを構成しました。モデルの特徴属性ドリフトを監視し、継続的な評価指標を確立する必要があります。何をすべきでしょうか? You developed an ML model using Vertex AI and deployed it to a Vertex AI endpoint. You anticipate that the model will need to be retrained as new data becomes available. You have configured a Vertex AI Model Monitoring Job. You need to monitor the model for feature attribution drift and establish continuous evaluation metrics. What should you do?

    Enable request-response logging for the Vertex AI endpoint, and set up alerts using Cloud Logging. Review the feature attributions in the Google Cloud console when an alert is received.

  • 19

    (Q#319) あなたは投資銀行でMLの研究者として働いており、Gemma大規模言語モデル(LLM)を実験しています。あなたはこのモデルを社内のユースケースに導入する予定です。あなたはモデルの基礎となるインフラストラクチャを完全に制御し、モデルの推論時間を最小化する必要があります。このタスクにはどのサービング構成を使用すべきでしょうか? You work as an ML researcher at an investment bank, and you are experimenting with the Gemma large language model (LLM). You plan to deploy the model for an internal use case. You need to have full control of the model's underlying infrastructure and minimize the model's inference time. Which serving configuration should you use for this task?

    Deploy the model on a Google Kubernetes Engine (GKE) cluster by using the deployment options in Model Garden.

  • 20

    (Q#320) あなたはMLの研究者で、複数の深層学習ベースのモデル・アーキテクチャとハイパーパラメータ構成を評価しています。各モデルの反復の進捗を追跡し、主要なメトリクスを視覚化し、モデルの内部を洞察し、トレーニングのパフォーマンスを最適化するための堅牢なソリューションを実装する必要があります。 このソリューションには、モデルを比較するための最も効率的で強力なアプローチと、最も強力な可視化機能を持たせる必要があります。このソリューションにどのような強気で臨むべきでしょうか? You are an ML researcher and are evaluating multiple deep learning-based model architectures and hyperparameter configurations. You need to implement a robust solution to track the progress of each model iteration, visualize key metrics, gain insights into model internals, and optimize training performance. You want your solution to have the most efficient and powerful approach to compare the models and have the strongest visualization abilities. How should you bull this solution?

    Use Vertex AI Experiments for tracking iterations and comparison, and use Vertex AI TensorBoard for visualization and analysis of the training metrics and model architecture.

  • 21

    (Q#321) あなたはクレジットカードの不正取引を検知するモデルを開発しています。不正取引を1件でも見逃すと、クレジットカード保有者に深刻な影響が及ぶ可能性があるため、検出の優先順位を決める必要があります。AutoML を使用して、ユーザーのプロファイル情報とクレジットカードの取引データからモデルを学習します。初期モデルをトレーニングした後、モデルが多くの不正取引を検出できないことに気付きました。検出される不正取引の数をどのように増やすべきでしょうか? You are developing a model to detect fraudulent credit card transactions. You need to prioritize detection, because missing even one fraudulent transaction could severely impact the credit card holder. You used AutoML to train a model on users' profile information and credit card transaction data. After training the initial model, you notice that the model is failing to detect many fraudulent transactions. How should you increase the number of fraudulent transactions that are detected?

    Decrease the probability threshold to classify a fraudulent transaction.

  • 22

    (Q#322) あなたは、従来のチャット、音声、ビデオ会議を1つのプラットフォームに統合したクラウドベースのコミュニケーション・プラットフォームを管理する組織で働いています。音声録音はクラウドストレージに保存されています。すべての録音は、サンプルレートが16kHzで、長さが1分以上です。あなたは、通話要約や感情分析などの将来のアプリケーションのために、音声通話録音を自動的にテキストに書き起こす新しい機能をプラットフォームに実装する必要があります。Googleが推奨するプラクティスに従いつつ、音声通話の書き起こし機能をどのように実装すべきでしょうか? You work at an organization that maintains a cloud-based communication platform that integrates conventional chat, voice, and video conferencing into one platform. The audio recordings are stored in Cloud Storage. All recordings have a 16 kHz sample rate and are more than one minute long. You need to implement a new feature in the platform that will automatically transcribe voice call recordings into text for future applications, such as call summarization and sentiment analysis. How should you implement the voice call transcription feature while following Google-recommended practices?

    Use the original audio sampling rate, and transcribe the audio by using the Speech-to-Text API with asynchronous recognition.

  • 23

    (Q#323) 複数のバージョンのMLモデルを作成し、Vertex AI Model Registryにインポートしました。A/Bテストを実行して、最もシンプルなアプローチで最もパフォーマンスの高いモデルを特定したいとします。どうすればよいでしょうか? You have created multiple versions of an ML model and have imported them to Vertex AI Model Registry. You want to perform A/B testing to identify the best performing model using the simplest approach. What should you do?

    Split incoming traffic to distribute prediction requests among the versions. Monitor the performance of each version using Vertex AI's built-in monitoring tools.

  • 24

    (Q#324) 小さなデータセットでXGBoostモデルを学習する必要があります。トレーニングコードにはカスタム依存関係が必要です。Vertex AIカスタムトレーニングジョブをセットアップする必要があります。Googleが推奨するプラクティスに従いつつ、トレーニングジョブの起動時間を最小限に抑えたい。どうすればよいでしょうか? You need to train an XGBoost model on a small dataset. Your training code requires custom dependencies. You need to set up a Vertex AI custom training job. You want to minimize the startup time of the training job while following Google-recommended practices. What should you do?

    Store the data in a Cloud Storage bucket, and create a custom container with your training application and its custom dependencies. In your training application, read the data from Cloud Storage and train the model.

  • 25

    (Q#325) あなたは、サブスクリプションサービスの顧客解約を予測するMLモデルを構築しています。過去のデータを使用して Vertex AI でモデルをトレーニングし、リアルタイム予測のために Vertex AI エンドポイントにデプロイしました。数週間後、AUC(ROC曲線下面積)で測定されるモデルのパフォーマンスが、トレーニング時のパフォーマンスと比較して、本番環境では大幅に低下していることに気付きました。この問題をどのようにトラブルシューティングすべきでしょうか? You are building an ML model to predict customer churn for a subscription service. You have trained your model on Vertex AI using historical data, and deployed it to a Vertex AI endpoint for real-time predictions. After a few weeks, you notice that the model's performance, measured by AUC (area under the ROC curve), has dropped significantly in production compared to its performance during training. How should you troubleshoot this problem?

    Monitor the training/serving skew of feature values for requests sent to the endpoint.

  • 26

    (Q#326) あなたは人気の決済アプリを管理する組織で働いています。あなたはscikit-learnを使用して不正取引検出モデルを構築し、Vertex AIエンドポイントにデプロイしました。エンドポイントは現在、2つのvCPUと8GBのメモリを搭載した1台のe2-standard-2マシンを使用しています。あなたは、ゲートウェイ上のトラフィックがエンドポイントの容量の4倍以上に変動していることを発見しました。最も費用対効果の高い方法でこの問題に対処する必要があります。どうすればよいでしょうか。 You work at an organization that manages a popular payment app. You built a fraudulent transaction detection model by using scikit-learn and deployed it to a Vertex AI endpoint. The endpoint is currently using 1 e2-standard-2 machine with 2 vCPUs and 8 GB of memory. You discover that traffic on the gateway fluctuates to four times more than the endpoint's capacity. You need to address this issue by using the most cost-effective approach. What should you do?

    Increase the number of maximum replicas to 6 nodes, each with 1 e2-standard-2 machine.

  • 27

    (Q#327) あなたは、ユーザーの文体を反映し、有名な作家の文体が検出された場合はその作家を模倣するように、生成された応答を動的に適応させることができるAIテキストジェネレータを開発しています。さまざまな作家の作品の大規模なデータセットがあり、カスタムVM上でモデルをホストする予定です。最も効果的なモデルを使用したい。どうすればいいでしょうか? You are developing an AI text generator that will be able to dynamically adapt its generated responses to mirror the writing style of the user and mimic famous authors if their style is detected. You have a large dataset of various authors' works, and you plan to host the model on a custom VM. You want to use the most effective model. What should you do?

    Fine-tune Llama 3 from Model Garden on Vertex AI Pipelines.

  • 28

    (Q#328) あなたは、オンプレミスからGoogle Cloudに移行している小さな会社のリードMLアーキテクトです。あなたの会社には、クラウドインフラストラクチャのリソースと専門知識が限られています。Google Cloudからできるだけ早くモデルを提供したい。追加リソースを必要とせず、スケーラブルで信頼性が高く、費用対効果の高いソリューションを使用したい。どうすればよいでしょうか? You are a lead ML architect at a small company that is migrating from on-premises to Google Cloud. Your company has limited resources and expertise in cloud infrastructure. You want to serve your models from Google Cloud as soon as possible. You want to use a scalable, reliable, and cost-effective solution that requires no additional resources. What should you do?

    Deploy your models on Vertex AI endpoints.

  • 29

    (Q#329) あなたは大規模言語モデル(LLM)を使用する会話アプリケーションをデプロイしました。このアプリケーションには1,000人のユーザがいます。あなたは、モデルの応答の冗長性と正確性に関するユーザーフィードバックを収集します。ユーザーフィードバックは、回答が事実上正しいことを示していますが、ユーザーは質問のタイプによって異なるレベルの冗長性を求めています。あなたは、モデルがよりユーザーの期待に沿った回答を返すことを望み、スケーラブルなソリューションを使用したいと考えています。どうすればよいでしょうか? You deployed a conversational application that uses a large language model (LLM). The application has 1,000 users. You collect user feedback about the verbosity and accuracy of the model 's responses. The user feedback indicates that the responses are factually correct but users want different levels of verbosity depending on the type of question. You want the model to return responses that are more consistent with users' expectations, and you want to use a scalable solution. What should you do?

    Ask users to indicate all scenarios where they expect concise responses versus verbose responses. Modify the application 's prompt to include these scenarios and their respective verbosity levels. Re-evaluate the verbosity of responses with updated prompts.

  • 30

    (Q#330) Vertex AIを使用してMLモデルとデータセットを管理しています。最近、モデルの1つを更新しました。新しいバージョンと以前のバージョンを追跡して比較し、データセットのバージョニングを組み込みたいと考えています。どうすればよいでしょうか? You are using Vertex AI to manage your ML models and datasets. You recently updated one of your models. You want to track and compare the new version with the previous one and incorporate dataset versioning. What should you do?

    Use Vertex AI Experiments to track and compare model artifacts and versions, and use Vertex AI managed datasets to manage dataset versioning.

  • 31

    (Q#331) Vertex AIに導入された顧客解約予測モデルの再トレーニングポリシーを作成しています。新しいトレーニングデータは毎週追加されます。あなたは、コストと労力を最小限に抑えるモデル再トレーニングプロセスを実装したいと考えています。何をすべきでしょうか? You are creating a retraining policy for a customer churn prediction model deployed in Vertex AI. New training data is added weekly. You want to implement a model retraining process that minimizes cost and effort. What should you do?

    Retrain the model when a significant shift in the distribution of customer attributes is detected in the production data compared to the training data.

  • 32

    (Q#332) あなたはアパレル小売企業のAIエンジニアです。販売チームは過去5~6年にわたり、季節ごとの販売パターンを観察してきました。販売チームはCSVファイルに保存された毎週の販売データを分析し、視覚化しています。あなたは、在庫と人員の作業負荷を最適化するために、将来のシーズンの週間売上を推定するよう求められています。あなたは最も効率的なアプローチを使いたいと考えています。どうすればよいでしょうか? You are an AI engineer with an apparel retail company. The sales team has observed seasonal sales patterns over the past 5-6 years. The sales team analyzes and visualizes the weekly sales data stored in CSV files. You have been asked to estimate weekly sales for future seasons to optimize inventory and personnel workloads. You want to use the most efficient approach. What should you do?

    Upload the files into Cloud Storage. Use Python to preprocess and load the tabular data into BigQuery. Use time series forecasting models to predict weekly sales.

  • 33

    (Q#333) 貴社のビジネス関係者は、事業戦略に反映させるために、顧客離れの要因を理解したいと考えています。あなたは、モデル結果の単純な解釈可能性を優先した顧客離反予測モデルを構築する必要があります。どの特徴が予測につながったかを説明できるMLフレームワークとモデリング手法を選択する必要があります。あなたは何をすべきでしょうか? Your company's business stakeholders want to understand the factors driving customer churn to inform their business strategy. You need to build a customer churn prediction model that prioritizes simple interpretability of your model's results. You need to choose the ML framework and modeling technique that will explain which features led to the prediction. What should you do?

    Build a logistic regression model in scikit-learn, and interpret the model's output coefficients to understand feature impact.

  • 34

    (Q#334) あなたは、本番環境に配備された Vertex AI モデルの管理と監視を担当しています。モデルのパフォーマンスが低下した場合、自動的に再トレーニングを行いたいと考えています。どうすればよいでしょうか。 You are responsible for managing and monitoring a Vertex AI model that is deployed in production. You want to automatically retrain the model when its performance deteriorates. What should you do?

    Create a Vertex AI Model Monitoring job to track the model's performance with production data, and trigger retraining when specific metrics drop below predefined thresholds.

  • 35

    (Q#335) あなたは最近、Jupyterノートブックで新しいMLモデルを開発しました。あなたは、モデル成果物のバージョンと系統を追跡する、信頼性と再現性のあるモデル学習プロセスを確立したいと考えています。毎週モデルを再トレーニングする予定です。トレーニングプロセスをどのように運用すべきでしょうか? You have recently developed a new ML model in a Jupyter notebook. You want to establish a reliable and repeatable model training process that tracks the versions and lineage of your model artifacts. You plan to retrain your model weekly. How should you operationalize your training process?

    1. Create a managed pipeline in Vertex AI Pipelines to train your model by using a Vertex AI CustomTrainingJobOp component. 2. Use the ModelUploadOp component to upload your model to Vertex AI Model Registry. 3. Use Cloud Scheduler and Cloud Run functions to run the Vertex AI pipeline weekly.

  • 36

    (Q#336) Vertex AIを使用してカスタムMLモデルを開発し、オンライン配信用に展開したいと考えています。モデルが高いスループットを処理できるようにしながら、待ち時間を最小限に抑えることで、モデルの配信パフォーマンスを最適化する必要があります。最もシンプルなソリューションを使用したい。どうすればよいでしょうか? You have developed a custom ML model using Vertex AI and want to deploy it for online serving. You need to optimize the model's serving performance by ensuring that the model can handle high throughput while minimizing latency. You want to use the simplest solution. What should you do?

    Deploy the model to a Vertex AI endpoint resource to automatically scale the serving backend based on the throughput. Configure the endpoint's autoscaling settings to minimize latency.

  • 37

    (Q#337) あなたの会社では、ベンダー向けに製品要約を作成する必要があります。あなたは、テキスト要約のためのモデルガーデンの基礎モデルを評価し、要約のスタイルがあなたの会社のブランドボイスと一致していないことに気づきました。このLLMベースの要約モデルをどのように改善すれば、ビジネス目標をよりよく満たすことができますか? Your company needs to generate product summaries for vendors. You evaluate a foundation model from Model Garden for text summarization and find the style of the summaries are not aligned with your company's brand voice. How should you improve this LLM-based summarization model to better meet your business objectives?

    Fine-tune the model using a company-specific dataset.

  • 38

    (Q#338) あなたは、画像を前処理し、オブジェクト検出モデルを学習するカスタムVertex AIパイプラインジョブを構築しました。このパイプラインは現在、NVIDIA Tesla V100 GPUを1基搭載したn1-standard-8マシンを1台使用しています。モデルの精度を損なうことなく、モデルのトレーニング時間を短縮したい。どうすればよいでしょうか? You built a custom Vertex AI pipeline job that preprocesses images and trains an object detection model. The pipeline currently uses 1 n1-standard-8 machine with 1 NVIDIA Tesla V100 GPU. You want to reduce the model training time without compromising model accuracy. What should you do?

    Update the WorkerPoolSpec to use a machine with 24 vCPUs and 3 NVIDIA Tesla V100 GPUs.

  • 39

    (Q#339) あなたはSQLアナリストです。クラウドストレージに保存されたTensorFlowの顧客セグメンテーションモデルを利用する必要がある。最もシンプルで効率的なアプローチを使用したい。どうすればいいでしょうか? You are a SQL analyst. You need to utilize a TensorFlow customer segmentation model stored In Cloud Storage. You want to use the simplest and most efficient approach. What should you do?

    Convert the model into a BigQuery ML model, and use SQL for inference.