問題一覧
1
深層信念ネットワークでは、教師なし学習にどのような手法を用いるのか?
期限付きボルツマンマシン
2
深層信念ネットワークという手法を提唱したのは誰か?
ジェフリー・ヒントン
3
多次元データで、次元が増えると処理が困難になることを何と言うか?
次元の呪い
4
線形分離不可能なデータは、DNNによって初めて扱えるようになった。
いいえ
5
事前学習ではネットワークの重みは調整されているため、ファインチューニングは行わなくてもよい。
いいえ
6
ファインチューニングとは、勾配消失問題を解消することを目的に行われる手法である。
いいえ
7
副次的な次元を増やすことによって識別力を向上させることが可能な場合がある。これを何と言うか?
次元の祝福
8
ニューラルネットワークの隠れ層を増やすと、増やした隠れ層の重みが互いに影響するため、自由に次元数を設定できなくなる。
いいえ
9
コントラストを調整する手法は何と言うか?
ヒストグラム平坦化
10
積層オートエンコーダは誰が考えたか?
ジェフリー・ヒントン
11
GPUはNVIDIA社が開発しており、GPGPUはGoogle社が開発している。
いいえ
12
オートエンコーダを順番に学習していく手順を何と言うか?
事前学習
13
ファインチューニングとは、入力と出力が同じになるようなネットワークを作成することで、情報を圧縮する手法である。
いいえ
14
ファインチューニングでは、ネットワーク全体の重みを調整するために、入力・出力を用いたどのような学習を行うのか?
教師あり学習
15
ニューラルネットワークの隠れ層を増やすと、隠れ層の重みを調整しにくくなるため、事前学習が必須となる。
いいえ
16
多層パーセプトロンは○○と○○と○○で構成される。 ○○をすべて埋めよ。
入力層, 隠れ層, 出力層
17
出力が入力に近付くことを目指して学習する自己符号化器のアルゴリズムは何と呼ばれるか?
教師なし学習
18
隠れ層を追加するとどのような問題が発生して、学習がうまくいかないのか?
勾配消失問題
19
ニューラルネットワークの隠れ層を増やすと、隠れ層が複数となるため、出力層はシグモイド関数ではなくソフトマックス関数しか使えなくなる。
いいえ
20
Google社が開発を進めている、テンソル演算に最適化された装置は何か?
TPU
21
ファインチューニングは○○の学習法のひとつである。 ○○を埋めよ。
ディープラーニング
22
自己符号化器は、出力が入力と同じものに近付くことを目指して学習する。 この自己符号化器によって何が可能となるのか?
次元の削減
23
DNNの示す性能は、層を深くするほど高くなるので、問題となるのは増加する計算量に耐えうるマシンパワーだけである。
いいえ
24
自己符号化器は、出力が入力と同じものに近付くことを目指して学習する。このときの入力特徴をどのように表現できるか?
隠れ層の出力表現
25
隠れ層を追加すると何ができるようになるのか?
非線形分類
26
単純パーセプトロンは○○と○○で構成される。 ○○をすべて埋めよ。
入力層, 出力層
27
線形分離不可能なデータは、何層のパーセプトロンで初めて扱えるようになったか?
3層
28
事前学習とファインチューニングはいずれもネットワークの重みを調整する役割を果たすので、どちらを先に行ってもよい。
いいえ
29
事前学習を用いたディープラーニングでは何が行われるか?
ファインチューニング
30
事前学習を用いたディープラーニングの手法に○○と○○がある。 ○○を埋めよ。
積層オートエンコーダ, 深層信念ネットワーク
31
カラー画像を濃淡画像に変換して計算量を削減する手法は何か?
グレースケール化
32
細かいノイズの影響を除去する手法は何か?
平滑化
33
積層オートエンコーダは、○○と○○の工程で構成される。 ○○をすべて埋めよ。
事前学習, ファインチューニング
34
GPUに比べ、GPGPUはテンソル演算に特化しているため計算処理が速い。
いいえ
35
画像処理に関する大規模計算を行うための装置を何と言うか?
GPU
36
ディープラーニングは大量のデータがある場合には、必ず他のあらゆる機械学習の手法より優れている。
いいえ
37
ディープラーニングを行うにあたり、元来グラフィックス計算用のプロセッサとして開発された装置が転用され、並列計算を可能として従来型のプロセッサよりも非常に高い処理性能を誇っている。この装置の名称を何と言うか?
GPU
38
画像以外に関して大規模計算を行うための装置を何と言うか?
GPGPU
39
出力との誤差をネットワークに逆向きにフィードバックする形で重みを更新する手法を何と言うか?
誤差逆伝播法
40
事前学習を用いたディープニューラルネットワークについて、事前学習とファインチューニングではどちらを先に行うか?
事前学習
41
ファインチューニングは深い層のニューラルネットワーク全体の重みを調整するため、誤差逆伝播法はうまくいかず、得られる効果は少ない。
いいえ
42
ニューラルネットワークの隠れ層を増やすことによって、隠れ層が積み重なるため、どういう手法を適用しにくくなるのか?
誤差逆伝播法
43
DNNはコンペティションにおいて高い成果を上げているが、これはコンペティションだからこそできたことであり、DNNを実社会で応用することは困難である。
いいえ
44
既存の学習済みモデルに対して重みを一部学習させ、特徴量抽出器として利用する手法を何と言うか?
ファインチューニング