問題一覧
1
エニアック
2
1956
3
エニアック
4
フレーム問題
5
トイ・プロブレム
6
チューリングテスト
7
ジョン・サール
8
ディープラーニング
9
2045
10
ヒューリスティックな知識
11
モンテカルロ法
12
ブルートフォース法
13
Mini-Max法
14
オントロジー
15
ウェブマイニング
16
ライトウェイトオントロジー
17
ヘビーウェイトオントロジー
18
スパムフィルター
19
ILSVRC
20
STRIPS
21
SHRDLU
22
DENDRAL
23
マイシン
24
ファインチューニング
25
トランスフォーマー
26
コーパス
27
知識獲得のボトルネック
28
2021
29
次元の呪い
30
特徴抽出
31
セマンティックウェブ
32
LOD
33
ALexNet
34
VGG
35
GoodLeNet
36
ResNet
37
ムーアの法則
38
線形回帰
39
ラッソ
40
単回帰分析
41
ロジスティック回帰
42
シグモイド関数
43
ソフトマックス関数
44
ランダムフォレスト
45
ブーストラップサンプリング
46
アンサンブル学習
47
ブースティング
48
サポートベクターマシン
49
カーネル関数
50
自己回帰モデル
51
k-means法
52
ウォード法
53
最短距離法
54
主成分分析
55
協調フィルタリング
56
コールドスタート問題
57
コンテンツベースフィルタリング
58
トピックモデル
59
バンディットアルゴリズム
60
マルコフ決定過程モデル
61
価値関数
62
方策勾配法
63
訓練データ
64
テストデータ
65
交差検証
66
ホールドアウト検証
67
k-分割交差検証
68
予測誤差
69
混同行列
70
過学習
71
ROC曲線
72
情報量基準
73
複数のモデルをそれぞれ別に学習させ、各モデルの出力を平均もしくは多数決することで決める手法のこと
74
多クラス分類には、ソフトマックス関数が用いられる
75
株価予測
76
デンドログラム
77
協調フィルタリング
78
コンテンツベースフィルタリング
79
データセットに含まれるデータの件数が少ない時
80
クラスタリング
81
Q学習
82
特徴量
83
曜日ごとの平均売上
84
C. 教師あり学習では、予測時には特徴量のみを入力として使用する。
85
回帰タスク
86
ソフトマックス
87
シグモイド
88
ランダムフォレスト, k近傍法, ニューラルネットワーク
89
k近傍法では、距離に基づいて近いk個のデータから予測を行う。
90
活性化関数は、ネットワークを非線形にする役割がある。
91
学習データへの過学習を抑制すること。
92
Lasso回帰は特徴量の選択に有効である。
93
係数を小さく保ち、過学習を抑える。
94
分類問題
95
正解と予測値の差の二乗平均を取る。
96
出力を確率として解釈できる。
97
複数のモデルを組み合わせて予測精度を高める
98
誤分類されたデータに重点を置きながら学習を進める。
99
ブーストラップサンプリングを利用する。
100
同じデータ点が複数回選ばれる可能性がある。
鉄壁section16
鉄壁section16
村上翼 · 48問 · 1日前鉄壁section16
鉄壁section16
48問 • 1日前鉄壁section15
鉄壁section15
村上翼 · 89問 · 1日前鉄壁section15
鉄壁section15
89問 • 1日前鉄壁section11
鉄壁section11
村上翼 · 47問 · 1日前鉄壁section11
鉄壁section11
47問 • 1日前鉄壁section8
鉄壁section8
村上翼 · 67問 · 1日前鉄壁section8
鉄壁section8
67問 • 1日前鉄壁section7
鉄壁section7
村上翼 · 98問 · 1日前鉄壁section7
鉄壁section7
98問 • 1日前鉄壁section16
鉄壁section16
ぽち太 · 48問 · 1日前鉄壁section16
鉄壁section16
48問 • 1日前医療画像情報学
医療画像情報学
mimi · 63問 · 7日前医療画像情報学
医療画像情報学
63問 • 7日前G検定
G検定
ユーザ名非公開 · 100問 · 1ヶ月前G検定
G検定
100問 • 1ヶ月前鉄壁section16
鉄壁section16
十和 奥田 · 48問 · 1ヶ月前鉄壁section16
鉄壁section16
48問 • 1ヶ月前第6回復習用
第6回復習用
お"っ · 10問 · 1ヶ月前第6回復習用
第6回復習用
10問 • 1ヶ月前第6回復習用
第6回復習用
あんたく · 10問 · 2ヶ月前第6回復習用
第6回復習用
10問 • 2ヶ月前生化学②
生化学②
ユーザ名非公開 · 50問 · 4ヶ月前生化学②
生化学②
50問 • 4ヶ月前8-2 技術戦略マネジメント
8-2 技術戦略マネジメント
早川遼 · 9問 · 4ヶ月前8-2 技術戦略マネジメント
8-2 技術戦略マネジメント
9問 • 4ヶ月前A-1 プロフェッショナルリズム
A-1 プロフェッショナルリズム
fromTHAILAND · 16問 · 5ヶ月前A-1 プロフェッショナルリズム
A-1 プロフェッショナルリズム
16問 • 5ヶ月前2025秋追加メニュー
2025秋追加メニュー
赤井林檎 · 18問 · 5ヶ月前2025秋追加メニュー
2025秋追加メニュー
18問 • 5ヶ月前補佐試験2
補佐試験2
ユーザ名非公開 · 43問 · 5ヶ月前補佐試験2
補佐試験2
43問 • 5ヶ月前基本情報 A ③
基本情報 A ③
ユーザ名非公開 · 60問 · 6ヶ月前基本情報 A ③
基本情報 A ③
60問 • 6ヶ月前15
15
そら · 25問 · 6ヶ月前15
15
25問 • 6ヶ月前因子分析
因子分析
ユーザ名非公開 · 27問 · 6ヶ月前因子分析
因子分析
27問 • 6ヶ月前基礎実験動物学第11回〜第14回
基礎実験動物学第11回〜第14回
ぼにぼに · 29問 · 6ヶ月前基礎実験動物学第11回〜第14回
基礎実験動物学第11回〜第14回
29問 • 6ヶ月前問題一覧
1
エニアック
2
1956
3
エニアック
4
フレーム問題
5
トイ・プロブレム
6
チューリングテスト
7
ジョン・サール
8
ディープラーニング
9
2045
10
ヒューリスティックな知識
11
モンテカルロ法
12
ブルートフォース法
13
Mini-Max法
14
オントロジー
15
ウェブマイニング
16
ライトウェイトオントロジー
17
ヘビーウェイトオントロジー
18
スパムフィルター
19
ILSVRC
20
STRIPS
21
SHRDLU
22
DENDRAL
23
マイシン
24
ファインチューニング
25
トランスフォーマー
26
コーパス
27
知識獲得のボトルネック
28
2021
29
次元の呪い
30
特徴抽出
31
セマンティックウェブ
32
LOD
33
ALexNet
34
VGG
35
GoodLeNet
36
ResNet
37
ムーアの法則
38
線形回帰
39
ラッソ
40
単回帰分析
41
ロジスティック回帰
42
シグモイド関数
43
ソフトマックス関数
44
ランダムフォレスト
45
ブーストラップサンプリング
46
アンサンブル学習
47
ブースティング
48
サポートベクターマシン
49
カーネル関数
50
自己回帰モデル
51
k-means法
52
ウォード法
53
最短距離法
54
主成分分析
55
協調フィルタリング
56
コールドスタート問題
57
コンテンツベースフィルタリング
58
トピックモデル
59
バンディットアルゴリズム
60
マルコフ決定過程モデル
61
価値関数
62
方策勾配法
63
訓練データ
64
テストデータ
65
交差検証
66
ホールドアウト検証
67
k-分割交差検証
68
予測誤差
69
混同行列
70
過学習
71
ROC曲線
72
情報量基準
73
複数のモデルをそれぞれ別に学習させ、各モデルの出力を平均もしくは多数決することで決める手法のこと
74
多クラス分類には、ソフトマックス関数が用いられる
75
株価予測
76
デンドログラム
77
協調フィルタリング
78
コンテンツベースフィルタリング
79
データセットに含まれるデータの件数が少ない時
80
クラスタリング
81
Q学習
82
特徴量
83
曜日ごとの平均売上
84
C. 教師あり学習では、予測時には特徴量のみを入力として使用する。
85
回帰タスク
86
ソフトマックス
87
シグモイド
88
ランダムフォレスト, k近傍法, ニューラルネットワーク
89
k近傍法では、距離に基づいて近いk個のデータから予測を行う。
90
活性化関数は、ネットワークを非線形にする役割がある。
91
学習データへの過学習を抑制すること。
92
Lasso回帰は特徴量の選択に有効である。
93
係数を小さく保ち、過学習を抑える。
94
分類問題
95
正解と予測値の差の二乗平均を取る。
96
出力を確率として解釈できる。
97
複数のモデルを組み合わせて予測精度を高める
98
誤分類されたデータに重点を置きながら学習を進める。
99
ブーストラップサンプリングを利用する。
100
同じデータ点が複数回選ばれる可能性がある。