問題一覧
1
「Random Erasing」に関する説明として適切なものはどれか。
2
学習の安定化と勾配消失の回避を目的とする手法
3
フィルタをどのくらいの間隔で動かすかを決める値
4
過学習を防ぎ、汎化性能を高めること
5
畳み込み処理の出力サイズを調整・保持するため
6
入力画像にフィルタを適用し、特徴を抽出する処理
7
長期依存関係を学習可能なRNNの改良型
8
並列計算に優れており、大量の行列演算を高速に処理できるから
9
時系列データや自然言語処理に適した構造を持つネットワーク
10
入力の中で重要な情報に重みをつけて注目すること
11
入力の各要素が、他の要素とどれだけ関係するかを計算する処理
12
Self-Attentionを用いて全入力を一度に処理する構造を持つモデル
13
単語の順序情報をモデルに与えること
14
データの特徴を抽出する
15
特徴マップのサイズを小さくし、位置の不変性を持たせる
16
出力サイズを調整するために入力の端に値を追加する
17
特徴マップ全体の平均を計算して1つの値に集約する
18
学習を安定させ、勾配消失を防ぐために中間層の出力を正規化する
19
各サンプルの層単位で正規化を行う
20
画像生成などのスタイル変換タスク
21
特徴マップを複数のグループに分け、それぞれを正規化する
22
スキップ接続(残差接続)を導入して勾配消失を緩和する
23
各時刻において出力が前の状態に依存する
24
LSTM、GRU、SimpleRNN
25
長期依存関係を保持しやすい構造
26
忘却ゲートと入力ゲートを統合しており、LSTMより計算が軽い
27
過去と未来の両方の情報を使って出力を生成する
28
エンコーダとデコーダから構成される
29
デコーダに本来の正解を与えることで学習を促進する手法
30
各要素間の依存関係を直接計算する手法
31
異なる視点から情報を同時に捉えるため、複数のSelf-Attentionを並列に処理する
32
TransformerはAttention機構に基づいており、並列処理が可能
33
データを圧縮・再構築することで特徴を学習する
34
オートエンコーダを何層にも積み重ねることで深い特徴を学習する
35
潜在空間に確率分布を導入し、サンプリングを可能にする
36
Beta-VAE、CVAE、VQ-VAE
37
学習データを人工的に増やして汎化性能を高める
38
物体の向きのばらつきに対する頑健性を高める
39
同じ意味を持つ文を別の表現で増やす
40
入力にランダムな変化を加え、頑健性を高める
41
左右や上下の反転で位置のばらつきに対応する
42
ハイパーパラメータチューニングが不要な自動データ拡張手法
問題一覧
1
「Random Erasing」に関する説明として適切なものはどれか。
2
学習の安定化と勾配消失の回避を目的とする手法
3
フィルタをどのくらいの間隔で動かすかを決める値
4
過学習を防ぎ、汎化性能を高めること
5
畳み込み処理の出力サイズを調整・保持するため
6
入力画像にフィルタを適用し、特徴を抽出する処理
7
長期依存関係を学習可能なRNNの改良型
8
並列計算に優れており、大量の行列演算を高速に処理できるから
9
時系列データや自然言語処理に適した構造を持つネットワーク
10
入力の中で重要な情報に重みをつけて注目すること
11
入力の各要素が、他の要素とどれだけ関係するかを計算する処理
12
Self-Attentionを用いて全入力を一度に処理する構造を持つモデル
13
単語の順序情報をモデルに与えること
14
データの特徴を抽出する
15
特徴マップのサイズを小さくし、位置の不変性を持たせる
16
出力サイズを調整するために入力の端に値を追加する
17
特徴マップ全体の平均を計算して1つの値に集約する
18
学習を安定させ、勾配消失を防ぐために中間層の出力を正規化する
19
各サンプルの層単位で正規化を行う
20
画像生成などのスタイル変換タスク
21
特徴マップを複数のグループに分け、それぞれを正規化する
22
スキップ接続(残差接続)を導入して勾配消失を緩和する
23
各時刻において出力が前の状態に依存する
24
LSTM、GRU、SimpleRNN
25
長期依存関係を保持しやすい構造
26
忘却ゲートと入力ゲートを統合しており、LSTMより計算が軽い
27
過去と未来の両方の情報を使って出力を生成する
28
エンコーダとデコーダから構成される
29
デコーダに本来の正解を与えることで学習を促進する手法
30
各要素間の依存関係を直接計算する手法
31
異なる視点から情報を同時に捉えるため、複数のSelf-Attentionを並列に処理する
32
TransformerはAttention機構に基づいており、並列処理が可能
33
データを圧縮・再構築することで特徴を学習する
34
オートエンコーダを何層にも積み重ねることで深い特徴を学習する
35
潜在空間に確率分布を導入し、サンプリングを可能にする
36
Beta-VAE、CVAE、VQ-VAE
37
学習データを人工的に増やして汎化性能を高める
38
物体の向きのばらつきに対する頑健性を高める
39
同じ意味を持つ文を別の表現で増やす
40
入力にランダムな変化を加え、頑健性を高める
41
左右や上下の反転で位置のばらつきに対応する
42
ハイパーパラメータチューニングが不要な自動データ拡張手法