g検定-5.6章
問題一覧
1
ニューラルネットワークの出力層から、入力層にかけて誤差と正答率をフィードバックする手法を(1)と呼ぶが、隠れ層を積み重ねるたびに、誤差がどんどん小さくなる問題のことを(2)と呼ぶ
誤差逆伝播法, 勾配消失問題
2
2006年にシェフェリー・ヒントンが勾配消失問題を解決すべく提唱したのが(1:カタカナ)あるいは(2:漢字)と呼ばれるもので、入力層と出力層がセットになったモデルです。
オートエンコーダー, 自己符号器
3
オートエンコーダーは「入力と出力が同じになるようなネットワーク」であるが、入力と出力の間にある隠れ層に「入力の情報を圧縮されたもの」を反映させる。この入力層→隠れ層における処理を(1)、隠れ層→出力層の処理を(2)と呼ぶ
エンコード, デコード
4
オートエンコーダーを入力層に近い層から順番に学習させたモデルを、(1)と呼び、順番に学習させる手順のことを(2)と呼ぶ
積層オートエンコーダー, 事前学習
5
オートエンコーダーを積み重ねるだけではラベルを出力できないため、積層オートエンコーダーでは、最後に(1)層(シグモイド関数あるいはソフトマックス関数による出力層)を出すことで教師あり学習を実現している。(回帰問題においては(1)層ではなく(2)層を追加する)この最後の仕上げのことを(3)と呼ぶ
ロジスティック回帰, 線形回帰, ファインチューニング
6
シェフェリー・ヒントンは、積層オートエンコーダーの他に(1)という手法も提唱しており、こちらは教師なし学習に制限付き(2)という手法を採用している
深層信念ネットワーク, ボルツマンマシン
7
Intel社の創設者の1人であるゴードン・ムーアが提唱した経験則「半導体の性能と集積は、18ヶ月ごとに2倍になる」の通称をなんと呼ぶか
ムーアの法則
8
コンピュータ全般の作業を処理する役割を担っているのが(1)、画像処理に必要な大規模な並列演算処理を行なっているのが(2)、(2)を画像以外の目的での使用に最適化したものを(3)という
CPU, GPU, GPGPU
9
機械学習のデータ量の目安となる経験則は「モデルのパラメータ数の10倍のデータ数が必要」というもので、通称(1)と呼ばれる。
バーニーおじさんのルール
10
隠れ層の活性化関数を工夫するアイデアの一つで-1〜1の範囲を取る関数を(1:英語)(2:日本語での別称)関数という
tanh, ハイパボリックタンジェント
11
勾配に沿って降りていくことで解を探索する手法をなんというか
勾配効果法
12
ある次元から見れば極大で、ある次元から見たら極小の点をなんというか
鞍点
13
過学習を防ぐための手法を(1)といい、学習の際にニューロンをランダムで捨てることを言う。しかし、(1)でも過学習を避けられないため、学習を早めに打ち切る(2)と言う手法が取られるようになった。
ドロップアウト, 早期終了
14
あらゆる問題で性能の良い汎用最適化戦略は理論上不可能という定理をなんというか
ノーフリーランチ定理
15
機械学習において、パラメータの偏りをなくすためにデータ全体を調整する処理のことを(1)という。また、特徴量を標準正規分布に変換する手法を(2)という。また(2)よりさらに踏み込んだものとして、各特徴量を無相関化した上で(2)する手法のことを(3)という。
正規化, 標準化, 白色化
16
各層に伝わってきたデータをその層でまた正規化する過学習をしにくくなる手法を(1)という
バッチ正規化
問題一覧
1
ニューラルネットワークの出力層から、入力層にかけて誤差と正答率をフィードバックする手法を(1)と呼ぶが、隠れ層を積み重ねるたびに、誤差がどんどん小さくなる問題のことを(2)と呼ぶ
誤差逆伝播法, 勾配消失問題
2
2006年にシェフェリー・ヒントンが勾配消失問題を解決すべく提唱したのが(1:カタカナ)あるいは(2:漢字)と呼ばれるもので、入力層と出力層がセットになったモデルです。
オートエンコーダー, 自己符号器
3
オートエンコーダーは「入力と出力が同じになるようなネットワーク」であるが、入力と出力の間にある隠れ層に「入力の情報を圧縮されたもの」を反映させる。この入力層→隠れ層における処理を(1)、隠れ層→出力層の処理を(2)と呼ぶ
エンコード, デコード
4
オートエンコーダーを入力層に近い層から順番に学習させたモデルを、(1)と呼び、順番に学習させる手順のことを(2)と呼ぶ
積層オートエンコーダー, 事前学習
5
オートエンコーダーを積み重ねるだけではラベルを出力できないため、積層オートエンコーダーでは、最後に(1)層(シグモイド関数あるいはソフトマックス関数による出力層)を出すことで教師あり学習を実現している。(回帰問題においては(1)層ではなく(2)層を追加する)この最後の仕上げのことを(3)と呼ぶ
ロジスティック回帰, 線形回帰, ファインチューニング
6
シェフェリー・ヒントンは、積層オートエンコーダーの他に(1)という手法も提唱しており、こちらは教師なし学習に制限付き(2)という手法を採用している
深層信念ネットワーク, ボルツマンマシン
7
Intel社の創設者の1人であるゴードン・ムーアが提唱した経験則「半導体の性能と集積は、18ヶ月ごとに2倍になる」の通称をなんと呼ぶか
ムーアの法則
8
コンピュータ全般の作業を処理する役割を担っているのが(1)、画像処理に必要な大規模な並列演算処理を行なっているのが(2)、(2)を画像以外の目的での使用に最適化したものを(3)という
CPU, GPU, GPGPU
9
機械学習のデータ量の目安となる経験則は「モデルのパラメータ数の10倍のデータ数が必要」というもので、通称(1)と呼ばれる。
バーニーおじさんのルール
10
隠れ層の活性化関数を工夫するアイデアの一つで-1〜1の範囲を取る関数を(1:英語)(2:日本語での別称)関数という
tanh, ハイパボリックタンジェント
11
勾配に沿って降りていくことで解を探索する手法をなんというか
勾配効果法
12
ある次元から見れば極大で、ある次元から見たら極小の点をなんというか
鞍点
13
過学習を防ぐための手法を(1)といい、学習の際にニューロンをランダムで捨てることを言う。しかし、(1)でも過学習を避けられないため、学習を早めに打ち切る(2)と言う手法が取られるようになった。
ドロップアウト, 早期終了
14
あらゆる問題で性能の良い汎用最適化戦略は理論上不可能という定理をなんというか
ノーフリーランチ定理
15
機械学習において、パラメータの偏りをなくすためにデータ全体を調整する処理のことを(1)という。また、特徴量を標準正規分布に変換する手法を(2)という。また(2)よりさらに踏み込んだものとして、各特徴量を無相関化した上で(2)する手法のことを(3)という。
正規化, 標準化, 白色化
16
各層に伝わってきたデータをその層でまた正規化する過学習をしにくくなる手法を(1)という
バッチ正規化