記憶度
3問
8問
0問
0問
0問
アカウント登録して、解答結果を保存しよう
問題一覧
1
転移学習に関する説明として不適切な選択肢を選べ
学習済みモデルを転移学習に利用する時に、ネットワークの上流に新しい層を追加しその層のみ学習を行いことが多い
2
訓練データに対し、回線や平行移動などの操作をおこなうことでデータ量を懐疑的に増やすテクニックとして適切な選択肢を選べ
データ拡張
3
転移学習が適用される例として不適切な選択肢を選べ
学習済みモデルに入力したデータとモデルの出力を用いて、別のモデルを訓練する
4
ニュートラルネットワークは、学習すべきパラメータの数も膨大であるため、パラメータの最適解を(ア)に求められることは非現実的である。代わりに(イ)に用いて最適解を探索するアプローチが取られる
(ア)解析的 (イ)勾配降下法
5
勾配降下法において、最適なパラメータ値の設定にたどり着くまでに、パラメータを何度も繰り返し更新する必要がある。パラメータが更新された回数を表す概念として適切な選択肢を選べ
イテレーション
6
ニュートラルネットワークの訓練では、パラメータを何度も更新しながら最適な値に近づかせる。パラメータの一度の更新に用いられるサンプル数を(ア)、同じ訓練データが繰り返し学習に使われた回数を表す量を(イ)と呼ぶ
(ア)バッチサイズ (イ) エポック
7
ディープニュートラルネットワークの訓練に取り入れられているバッチ正規化の説明として不適切な選択肢を選べ
局所最適解に陥りにくくする効果がある
8
ニュートラルネットワークにおいて、学習データを複数のグループに分けて、一度に1グループずつモデルに入力して損失関数を計算し、少しずつパラメータを更新する学習の仕組みとして適切な選択肢を選べ
確率的勾配降下法
9
ニュートラルネットワークの学習において最適解に到達するためには、一度に全データではなく、一部のデータを使って徐々にパラメータを更新する(ア)が有効と知られている
ミニバッチ学習
10
バッチ正規化の目的の1つは(ア)問題に対策することである
内部共変量シフト
11
ニュートラルネットワークの訓練に取り入れられるドロップアウトについて不適切な選択肢を選べ
訓練における計算コストはを節約することを目的とする
12
ディープラーニングの訓練は通常、膨大な学習データの量と計算時間を必要とする。この時、関係性の高い別タスクで大量のデータを用いて学習させたモデルのパラメータを(ア)に活用し、効果的に学習を行う工夫がとられる
転移学習
13
学習済みモデルのパラメータ値を初期化として採用し、手元のタスクのために新しいデータを使って出力側に近い層のパラメータのみ再学習させる過程として適切な選択肢を選べ
ファインチューニング
14
ニュートラルネットワークの基本的な最適化アルゴリズムの1つである(ア)は、損失関数の形によってはパラメータの探索が非効率になってしまう。この課題は、学習率の調整を適宜行う(イ)を使用することで改善されることがある
(ア)SGD (イ)Adam
15
画像認識用の深層学習モデルに入力する前に、画像データからノイズを除去する操作として適切な選択肢を選べ
平準化
16
ニュートラルネットワークの学習において、1つの(ア)の終了時の精度が、何個か前の(ア)の精度と比較して改善が見られない場合に学習を打ち切る手法を(イ)と呼ぶ
(ア)エポック (イ)早期終了
17
ニュートロン層の間の結合を一部切断することで学習の高速化を図る手法として適切な選択肢を選べ
ブルーニング
18
モデルの軽量化のために試みる手段に関する記述として不適切な選択肢を選べ
ブルーニングの箇所を効果的に選ぶことによって思う、再学習を行わなくても精度が落ちることはない
19
モデルの規模を小さくすることのメリットとして、適切な選択肢を選べ
幅広い企業や研究機関で、そのモデルを用いた研究を可能にする
20
大規模なニュートラルネットワークを構築するには膨大な数のパラメータを学習する必要があるため、高速な、データが重要である。そのため、画像処理に特化した演算装置を発展させたプロセッサである(ア)が使われるようになった
GPGPU
21
ディープラーニングに必要な学習データの量について不適切な選択肢を選べ
モデルのパラメータ数が決まると必要なデータ量が決まる