複数の特徴量を受け取り、1つの出力をするニューラルネットワークモデルを何というか
わかった
勾配降下法で、全データが更新式に使われるたとき、1〜と数える。
わかった
~とは、人間の脳の構造を模倣したアルゴリズムである。
わかった
ニューラルネットワークにおいて、相関の情報をどのように伝播するかを表した関数を~関数と呼ぶ
わかった
単純パーセプトロンは数式上では、~と全く同じ表現になる
わかった
多層パーセプトロンで、出力層と入力層の間の層を何と呼ぶか
わかった
機械学習において、学習によって求める値のことを~と呼び、最適化手法・計算によって求める。
一方で最適化手法・計算で求めることができず、実際にモデルを使って予測してみないと良しあしが分からない値も存在し、~と呼ぶ。
わかった
ニューラルネットワークでは、予測誤差を~としてとらえ、~を最小化することで、予測値と実際の値を一致させることを目指す。
わかった
ディープラーニングは、~を応用させた手法である。
ただ、ディープラーニングは、機械学習と同様に、人口知能の研究分野の一つであるので、~のモデル自体は~と呼ばれることが大半である。
わかった
~は様々なタスクを~に処理していくことにたけており、~は画像処理のための同一の演算を一度にすることができる。
機械学習における行列やベクトルの大規模並列計算には、~の方が重宝される。
わかった
画像処理以外の目的で作られたGPUを何というか。
わかった
Googleが独自に開発した、AI向けの独自チップ(GPU)を何というか。
わかった
データ量の目安となる経験則は~と呼ばれ、パラメータ数の~倍の量が必要と考えられる。
わかった
~関数は、回帰問題の誤差関数と用いられることが大半である。
わかった
~関数は、分類問題の誤差関数として、よく用いられる。
その理由も答えよ。
わかった
距離学習とはデータ間の距離、つまり~を推定する手法である。
距離学習をディープラーニングに応用したものを、~と呼ぶ。
わかった
深層距離学習において、入力データを2つ用いるものを~と呼び、入力データを3つ用いるものを~と呼ぶ。
また、それぞれの誤差関数を~、~と呼ぶ。
わかった
生成モデルが目指すのは、今観測されたデータが、どのような~に従うかをモデル化しようと試みている。
わかった
生成モデルでは、~のずれを誤差関数として用いる
この~のずれの指標として用いられるのが、~と~である。
わかった
生成モデルにディープラーニングを用いたモデルを真相生成モデルと呼ぶ。
その一つである~は、~をベースとした誤差関数(※)が最適化計算に使用される。
※計算の過程で誤差を表すものでなくなるため、目的関数という
わかった
正則化の中で〜にペナルティ項を与える方法として〜正則化と〜正則化がある。
〜正則化は、一部のパラメータをゼロにして、不要なパラメータをさくげんできる。
〜正則化は、パラメータの大きさに合わせてゼロに近づける。こらにより、汎化したモデルを得る。
わかった
L1正則化とL2正則化の、L1とL2は、ノルムにあたるものである。
L1ノルムは、重み等のモデルパラメータといった各成分の〜であり、L2ノルムは、各成分の〜である。
わかった
ディープニューラルネットワークで、過学習を防ぐために、ランダムにニューロンを除外することを何というか
わかった
最適化手法の勾配降下法には、全データの誤差を計算して、更新式を計算する〜と、全データからランダムに1つ選び、誤差を計算して更新式を計算するとこを繰り返す〜と、全データをいくつかのデータセットに分割して、データセットごとに誤差の計算と更新式を計算する〜がある
わかった
バッチ勾配降下法、ミニバッチ勾配降下法、確率的勾配降下法をそれぞれ説明せよ。
わかった
勾配降下法が、抱える問題は、〜の調節と〜である。
わかった
勾配降下法において、見せけな最適解を〜と呼び、本当の最適解を、〜と呼ぶ
わかった
ある次元から見ると極小値でも、別の次元から見ると、極大値となる点をなんというか。
わかった
ディープラーニングで、学習進めるときに、最適化が進む方向へと加速して学習する手法を〜という
わかった
勾配降下法における過学習の問題の対策として、テストデータに対する〜の値が大きくなったときに学習をやめる〜が挙げられる。
しかし、最近では〜の値大きくなってから、再度小さくなる〜も観測されている。
わかった
ディープラーニングにおいて、ハイパーパラメータを調整することをなんというか。
わかった
ハイパーパラメータの探索手法で、グリッドサーチとランダムサーチがある。それぞれ説明せよ。
わかった
勾配降下法でニューラルネットワークの学習を進めるときに、微分計算するを〜によって効率的に実施できる。
わかった
誤差逆伝播法によって、ニューラルネットワークの微分計算の効率化ができたが、新たな問題として、計算が進むにつれて勾配がどんどん小さくなってしまう〜と勾配が大きくなりすぎてしまう〜が発生した。
わかった
誤差逆伝播法における勾配消失問題の原因は何か?
わかった
誤差逆伝播法における勾配消失問題の解決のために、活性化関数を〜関数から〜関数に変更することが挙げられる。これは〜関数の微分の最大値が1であるためである。
わかった
誤差逆伝播法における勾配消失問題において、活性化関数にtanh関数を用いるよりも、〜関数を用いるほうが学習がうまくいくことが多い。
わかった
ReLU関数の派生形として、ゼロ以下の部分に傾きを持たせる〜関数、ゼロ以下の部分の傾きを学習によって最適化しようとする〜関数、ゼロ以下の部分にランダムな傾きを試す〜関数が挙げられる。
わかった
複数の特徴量を受け取り、1つの出力をするニューラルネットワークモデルを何というか
わかった
勾配降下法で、全データが更新式に使われるたとき、1〜と数える。
わかった
~とは、人間の脳の構造を模倣したアルゴリズムである。
わかった
ニューラルネットワークにおいて、相関の情報をどのように伝播するかを表した関数を~関数と呼ぶ
わかった
単純パーセプトロンは数式上では、~と全く同じ表現になる
わかった
多層パーセプトロンで、出力層と入力層の間の層を何と呼ぶか
わかった
機械学習において、学習によって求める値のことを~と呼び、最適化手法・計算によって求める。
一方で最適化手法・計算で求めることができず、実際にモデルを使って予測してみないと良しあしが分からない値も存在し、~と呼ぶ。
わかった
ニューラルネットワークでは、予測誤差を~としてとらえ、~を最小化することで、予測値と実際の値を一致させることを目指す。
わかった
ディープラーニングは、~を応用させた手法である。
ただ、ディープラーニングは、機械学習と同様に、人口知能の研究分野の一つであるので、~のモデル自体は~と呼ばれることが大半である。
わかった
~は様々なタスクを~に処理していくことにたけており、~は画像処理のための同一の演算を一度にすることができる。
機械学習における行列やベクトルの大規模並列計算には、~の方が重宝される。
わかった
画像処理以外の目的で作られたGPUを何というか。
わかった
Googleが独自に開発した、AI向けの独自チップ(GPU)を何というか。
わかった
データ量の目安となる経験則は~と呼ばれ、パラメータ数の~倍の量が必要と考えられる。
わかった
~関数は、回帰問題の誤差関数と用いられることが大半である。
わかった
~関数は、分類問題の誤差関数として、よく用いられる。
その理由も答えよ。
わかった
距離学習とはデータ間の距離、つまり~を推定する手法である。
距離学習をディープラーニングに応用したものを、~と呼ぶ。
わかった
深層距離学習において、入力データを2つ用いるものを~と呼び、入力データを3つ用いるものを~と呼ぶ。
また、それぞれの誤差関数を~、~と呼ぶ。
わかった
生成モデルが目指すのは、今観測されたデータが、どのような~に従うかをモデル化しようと試みている。
わかった
生成モデルでは、~のずれを誤差関数として用いる
この~のずれの指標として用いられるのが、~と~である。
わかった
生成モデルにディープラーニングを用いたモデルを真相生成モデルと呼ぶ。
その一つである~は、~をベースとした誤差関数(※)が最適化計算に使用される。
※計算の過程で誤差を表すものでなくなるため、目的関数という
わかった
正則化の中で〜にペナルティ項を与える方法として〜正則化と〜正則化がある。
〜正則化は、一部のパラメータをゼロにして、不要なパラメータをさくげんできる。
〜正則化は、パラメータの大きさに合わせてゼロに近づける。こらにより、汎化したモデルを得る。
わかった
L1正則化とL2正則化の、L1とL2は、ノルムにあたるものである。
L1ノルムは、重み等のモデルパラメータといった各成分の〜であり、L2ノルムは、各成分の〜である。
わかった
ディープニューラルネットワークで、過学習を防ぐために、ランダムにニューロンを除外することを何というか
わかった
最適化手法の勾配降下法には、全データの誤差を計算して、更新式を計算する〜と、全データからランダムに1つ選び、誤差を計算して更新式を計算するとこを繰り返す〜と、全データをいくつかのデータセットに分割して、データセットごとに誤差の計算と更新式を計算する〜がある
わかった
バッチ勾配降下法、ミニバッチ勾配降下法、確率的勾配降下法をそれぞれ説明せよ。
わかった
勾配降下法が、抱える問題は、〜の調節と〜である。
わかった
勾配降下法において、見せけな最適解を〜と呼び、本当の最適解を、〜と呼ぶ
わかった
ある次元から見ると極小値でも、別の次元から見ると、極大値となる点をなんというか。
わかった
ディープラーニングで、学習進めるときに、最適化が進む方向へと加速して学習する手法を〜という
わかった
勾配降下法における過学習の問題の対策として、テストデータに対する〜の値が大きくなったときに学習をやめる〜が挙げられる。
しかし、最近では〜の値大きくなってから、再度小さくなる〜も観測されている。
わかった
ディープラーニングにおいて、ハイパーパラメータを調整することをなんというか。
わかった
ハイパーパラメータの探索手法で、グリッドサーチとランダムサーチがある。それぞれ説明せよ。
わかった
勾配降下法でニューラルネットワークの学習を進めるときに、微分計算するを〜によって効率的に実施できる。
わかった
誤差逆伝播法によって、ニューラルネットワークの微分計算の効率化ができたが、新たな問題として、計算が進むにつれて勾配がどんどん小さくなってしまう〜と勾配が大きくなりすぎてしまう〜が発生した。
わかった
誤差逆伝播法における勾配消失問題の原因は何か?
わかった
誤差逆伝播法における勾配消失問題の解決のために、活性化関数を〜関数から〜関数に変更することが挙げられる。これは〜関数の微分の最大値が1であるためである。
わかった
誤差逆伝播法における勾配消失問題において、活性化関数にtanh関数を用いるよりも、〜関数を用いるほうが学習がうまくいくことが多い。
わかった
ReLU関数の派生形として、ゼロ以下の部分に傾きを持たせる〜関数、ゼロ以下の部分の傾きを学習によって最適化しようとする〜関数、ゼロ以下の部分にランダムな傾きを試す〜関数が挙げられる。
わかった