問題一覧
1
エニアック
2
1956
3
エニアック
4
フレーム問題
5
トイ・プロブレム
6
チューリングテスト
7
ジョン・サール
8
ディープラーニング
9
2045
10
ヒューリスティックな知識
11
モンテカルロ法
12
ブルートフォース法
13
Mini-Max法
14
オントロジー
15
ウェブマイニング
16
ライトウェイトオントロジー
17
ヘビーウェイトオントロジー
18
スパムフィルター
19
ILSVRC
20
STRIPS
21
SHRDLU
22
DENDRAL
23
マイシン
24
ファインチューニング
25
トランスフォーマー
26
コーパス
27
知識獲得のボトルネック
28
2021
29
次元の呪い
30
特徴抽出
31
セマンティックウェブ
32
LOD
33
ALexNet
34
VGG
35
GoodLeNet
36
ResNet
37
ムーアの法則
38
線形回帰
39
ラッソ
40
単回帰分析
41
ロジスティック回帰
42
シグモイド関数
43
ソフトマックス関数
44
ランダムフォレスト
45
ブーストラップサンプリング
46
アンサンブル学習
47
ブースティング
48
サポートベクターマシン
49
カーネル関数
50
自己回帰モデル
51
k-means法
52
ウォード法
53
最短距離法
54
主成分分析
55
協調フィルタリング
56
コールドスタート問題
57
コンテンツベースフィルタリング
58
トピックモデル
59
バンディットアルゴリズム
60
マルコフ決定過程モデル
61
価値関数
62
方策勾配法
63
訓練データ
64
テストデータ
65
交差検証
66
ホールドアウト検証
67
k-分割交差検証
68
予測誤差
69
混同行列
70
過学習
71
ROC曲線
72
情報量基準
73
複数のモデルをそれぞれ別に学習させ、各モデルの出力を平均もしくは多数決することで決める手法のこと
74
多クラス分類には、ソフトマックス関数が用いられる
75
株価予測
76
デンドログラム
77
協調フィルタリング
78
コンテンツベースフィルタリング
79
データセットに含まれるデータの件数が少ない時
80
クラスタリング
81
Q学習
82
特徴量
83
曜日ごとの平均売上
84
C. 教師あり学習では、予測時には特徴量のみを入力として使用する。
85
回帰タスク
86
ソフトマックス
87
シグモイド
88
ランダムフォレスト, k近傍法, ニューラルネットワーク
89
k近傍法では、距離に基づいて近いk個のデータから予測を行う。
90
活性化関数は、ネットワークを非線形にする役割がある。
91
学習データへの過学習を抑制すること。
92
Lasso回帰は特徴量の選択に有効である。
93
係数を小さく保ち、過学習を抑える。
94
分類問題
95
正解と予測値の差の二乗平均を取る。
96
出力を確率として解釈できる。
97
複数のモデルを組み合わせて予測精度を高める
98
誤分類されたデータに重点を置きながら学習を進める。
99
ブーストラップサンプリングを利用する。
100
同じデータ点が複数回選ばれる可能性がある。
問題一覧
1
エニアック
2
1956
3
エニアック
4
フレーム問題
5
トイ・プロブレム
6
チューリングテスト
7
ジョン・サール
8
ディープラーニング
9
2045
10
ヒューリスティックな知識
11
モンテカルロ法
12
ブルートフォース法
13
Mini-Max法
14
オントロジー
15
ウェブマイニング
16
ライトウェイトオントロジー
17
ヘビーウェイトオントロジー
18
スパムフィルター
19
ILSVRC
20
STRIPS
21
SHRDLU
22
DENDRAL
23
マイシン
24
ファインチューニング
25
トランスフォーマー
26
コーパス
27
知識獲得のボトルネック
28
2021
29
次元の呪い
30
特徴抽出
31
セマンティックウェブ
32
LOD
33
ALexNet
34
VGG
35
GoodLeNet
36
ResNet
37
ムーアの法則
38
線形回帰
39
ラッソ
40
単回帰分析
41
ロジスティック回帰
42
シグモイド関数
43
ソフトマックス関数
44
ランダムフォレスト
45
ブーストラップサンプリング
46
アンサンブル学習
47
ブースティング
48
サポートベクターマシン
49
カーネル関数
50
自己回帰モデル
51
k-means法
52
ウォード法
53
最短距離法
54
主成分分析
55
協調フィルタリング
56
コールドスタート問題
57
コンテンツベースフィルタリング
58
トピックモデル
59
バンディットアルゴリズム
60
マルコフ決定過程モデル
61
価値関数
62
方策勾配法
63
訓練データ
64
テストデータ
65
交差検証
66
ホールドアウト検証
67
k-分割交差検証
68
予測誤差
69
混同行列
70
過学習
71
ROC曲線
72
情報量基準
73
複数のモデルをそれぞれ別に学習させ、各モデルの出力を平均もしくは多数決することで決める手法のこと
74
多クラス分類には、ソフトマックス関数が用いられる
75
株価予測
76
デンドログラム
77
協調フィルタリング
78
コンテンツベースフィルタリング
79
データセットに含まれるデータの件数が少ない時
80
クラスタリング
81
Q学習
82
特徴量
83
曜日ごとの平均売上
84
C. 教師あり学習では、予測時には特徴量のみを入力として使用する。
85
回帰タスク
86
ソフトマックス
87
シグモイド
88
ランダムフォレスト, k近傍法, ニューラルネットワーク
89
k近傍法では、距離に基づいて近いk個のデータから予測を行う。
90
活性化関数は、ネットワークを非線形にする役割がある。
91
学習データへの過学習を抑制すること。
92
Lasso回帰は特徴量の選択に有効である。
93
係数を小さく保ち、過学習を抑える。
94
分類問題
95
正解と予測値の差の二乗平均を取る。
96
出力を確率として解釈できる。
97
複数のモデルを組み合わせて予測精度を高める
98
誤分類されたデータに重点を置きながら学習を進める。
99
ブーストラップサンプリングを利用する。
100
同じデータ点が複数回選ばれる可能性がある。