問題一覧
1
ブースティングは逐次的、バギングは並列的に学習する。
2
入力画像の端に情報を保持するためにゼロを追加する。
3
サポートベクターと呼ばれる一部のデータに基づいて分類境界を決める。
4
VARモデルは複数の時系列変数を同時に扱える。
5
次元を削減し、データの分散を最大化する方向に変換する。
6
2, 4, 6
7
階層あり:ウォード法 階層なし:k-means
8
ウォード法は階層型クラスタリング手法である。
9
見た目の印象でデンドログラムから主観的に判断する。
10
各クラスタの重心からの距離が最小となるように割り当てる。
11
将来の報酬の重要度を調整する。
12
特徴量の最小値と最大値を使って、値を0〜1の範囲に変換する。
13
各データを、その平均と標準偏差を使ってスケーリングする手法。
14
探索と活用のバランスを取りつつ、期待報酬を最大化する問題
15
勾配消失法
16
非線形問題を高次元空間に写像して線形分離可能にする
17
状態-行動ペアにおける期待累積報酬
18
REINFORCE, PPO(Proximal Policy Optimization)
19
方策と価値関数の両方を同時に学習する
20
テストデータ
21
ホールドアウト検証は単一の分割で済む
22
モデルの表現力が不十分
23
精度(Accuracy)
24
実際に陰性で、モデルが陽性と予測した
25
モデルが複雑すぎて、訓練データに特化しすぎる
26
どのアルゴリズムも、すべての問題に対して平均すると同等の性能になる
27
シンプルなモデルの方がより良いとされる
28
AICはモデルの良さと複雑さのトレードオフを評価する指標である
29
適合率(Precision)と再現率(Recall)の調和平均
問題一覧
1
ブースティングは逐次的、バギングは並列的に学習する。
2
入力画像の端に情報を保持するためにゼロを追加する。
3
サポートベクターと呼ばれる一部のデータに基づいて分類境界を決める。
4
VARモデルは複数の時系列変数を同時に扱える。
5
次元を削減し、データの分散を最大化する方向に変換する。
6
2, 4, 6
7
階層あり:ウォード法 階層なし:k-means
8
ウォード法は階層型クラスタリング手法である。
9
見た目の印象でデンドログラムから主観的に判断する。
10
各クラスタの重心からの距離が最小となるように割り当てる。
11
将来の報酬の重要度を調整する。
12
特徴量の最小値と最大値を使って、値を0〜1の範囲に変換する。
13
各データを、その平均と標準偏差を使ってスケーリングする手法。
14
探索と活用のバランスを取りつつ、期待報酬を最大化する問題
15
勾配消失法
16
非線形問題を高次元空間に写像して線形分離可能にする
17
状態-行動ペアにおける期待累積報酬
18
REINFORCE, PPO(Proximal Policy Optimization)
19
方策と価値関数の両方を同時に学習する
20
テストデータ
21
ホールドアウト検証は単一の分割で済む
22
モデルの表現力が不十分
23
精度(Accuracy)
24
実際に陰性で、モデルが陽性と予測した
25
モデルが複雑すぎて、訓練データに特化しすぎる
26
どのアルゴリズムも、すべての問題に対して平均すると同等の性能になる
27
シンプルなモデルの方がより良いとされる
28
AICはモデルの良さと複雑さのトレードオフを評価する指標である
29
適合率(Precision)と再現率(Recall)の調和平均