問題一覧
1
エニアック
2
1956
3
エニアック
4
フレーム問題
5
トイ・プロブレム
6
チューリングテスト
7
ジョン・サール
8
ディープラーニング
9
2045
10
ヒューリスティックな知識
11
モンテカルロ法
12
ブルートフォース法
13
Mini-Max法
14
オントロジー
15
ウェブマイニング
16
ライトウェイトオントロジー
17
ヘビーウェイトオントロジー
18
スパムフィルター
19
ILSVRC
20
STRIPS
21
SHRDLU
22
DENDRAL
23
マイシン
24
ファインチューニング
25
トランスフォーマー
26
コーパス
27
知識獲得のボトルネック
28
2021
29
次元の呪い
30
特徴抽出
31
セマンティックウェブ
32
LOD
33
ALexNet
34
VGG
35
GoodLeNet
36
ResNet
37
ムーアの法則
38
線形回帰
39
ラッソ
40
単回帰分析
41
ロジスティック回帰
42
シグモイド関数
43
ソフトマックス関数
44
ランダムフォレスト
45
ブーストラップサンプリング
46
アンサンブル学習
47
ブースティング
48
サポートベクターマシン
49
カーネル関数
50
自己回帰モデル
51
k-means法
52
ウォード法
53
最短距離法
54
主成分分析
55
協調フィルタリング
56
コールドスタート問題
57
コンテンツベースフィルタリング
58
トピックモデル
59
バンディットアルゴリズム
60
マルコフ決定過程モデル
61
価値関数
62
方策勾配法
63
訓練データ
64
テストデータ
65
交差検証
66
ホールドアウト検証
67
k-分割交差検証
68
予測誤差
69
混同行列
70
過学習
71
ROC曲線
72
情報量基準
73
複数のモデルをそれぞれ別に学習させ、各モデルの出力を平均もしくは多数決することで決める手法のこと
74
多クラス分類には、ソフトマックス関数が用いられる
75
株価予測
76
デンドログラム
77
協調フィルタリング
78
コンテンツベースフィルタリング
79
データセットに含まれるデータの件数が少ない時
80
クラスタリング
81
Q学習
82
特徴量
83
曜日ごとの平均売上
84
C. 教師あり学習では、予測時には特徴量のみを入力として使用する。
85
回帰タスク
86
ソフトマックス
87
シグモイド
88
ランダムフォレスト, k近傍法, ニューラルネットワーク
89
k近傍法では、距離に基づいて近いk個のデータから予測を行う。
90
活性化関数は、ネットワークを非線形にする役割がある。
91
学習データへの過学習を抑制すること。
92
Lasso回帰は特徴量の選択に有効である。
93
係数を小さく保ち、過学習を抑える。
94
分類問題
95
正解と予測値の差の二乗平均を取る。
96
出力を確率として解釈できる。
97
複数のモデルを組み合わせて予測精度を高める
98
誤分類されたデータに重点を置きながら学習を進める。
99
ブーストラップサンプリングを利用する。
100
同じデータ点が複数回選ばれる可能性がある。
鉄壁section16
鉄壁section16
村上翼 · 48問 · 1日前鉄壁section16
鉄壁section16
48問 • 1日前鉄壁section15
鉄壁section15
村上翼 · 89問 · 1日前鉄壁section15
鉄壁section15
89問 • 1日前鉄壁section11
鉄壁section11
村上翼 · 47問 · 1日前鉄壁section11
鉄壁section11
47問 • 1日前鉄壁section8
鉄壁section8
村上翼 · 67問 · 1日前鉄壁section8
鉄壁section8
67問 • 1日前鉄壁section7
鉄壁section7
村上翼 · 98問 · 1日前鉄壁section7
鉄壁section7
98問 • 1日前A-1 プロフェッショナルリズム
A-1 プロフェッショナルリズム
fromTHAILAND · 16問 · 5ヶ月前A-1 プロフェッショナルリズム
A-1 プロフェッショナルリズム
16問 • 5ヶ月前2025秋追加メニュー
2025秋追加メニュー
赤井林檎 · 18問 · 5ヶ月前2025秋追加メニュー
2025秋追加メニュー
18問 • 5ヶ月前補佐試験2
補佐試験2
ユーザ名非公開 · 43問 · 5ヶ月前補佐試験2
補佐試験2
43問 • 5ヶ月前基本情報 A ③
基本情報 A ③
ユーザ名非公開 · 60問 · 6ヶ月前基本情報 A ③
基本情報 A ③
60問 • 6ヶ月前15
15
そら · 25問 · 6ヶ月前15
15
25問 • 6ヶ月前基礎実験動物学第11回〜第14回
基礎実験動物学第11回〜第14回
ぼにぼに · 29問 · 6ヶ月前基礎実験動物学第11回〜第14回
基礎実験動物学第11回〜第14回
29問 • 6ヶ月前苦手な問題
苦手な問題
ねむいねこ · 100問 · 8ヶ月前苦手な問題
苦手な問題
100問 • 8ヶ月前第1回中間地総
第1回中間地総
ユーザ名非公開 · 16問 · 8ヶ月前第1回中間地総
第1回中間地総
16問 • 8ヶ月前現代キーワードファイル
現代キーワードファイル
ユーザ名非公開 · 36問 · 11ヶ月前現代キーワードファイル
現代キーワードファイル
36問 • 11ヶ月前論国 用語
論国 用語
ミヤ · 22問 · 11ヶ月前論国 用語
論国 用語
22問 • 11ヶ月前DataBase3300★Level 4
DataBase3300★Level 4
下水道 · 70問 · 11ヶ月前DataBase3300★Level 4
DataBase3300★Level 4
70問 • 11ヶ月前令和5年春
令和5年春
Tsuyoshi Ikeda · 25問 · 1年前令和5年春
令和5年春
25問 • 1年前総合演習
総合演習
ユーザ名非公開 · 85問 · 1年前総合演習
総合演習
85問 • 1年前アルゴリズム
アルゴリズム
1112 aaa · 6問 · 1年前アルゴリズム
アルゴリズム
6問 • 1年前一問一答 ①
一問一答 ①
ユーザ名非公開 · 32問 · 1年前一問一答 ①
一問一答 ①
32問 • 1年前問題一覧
1
エニアック
2
1956
3
エニアック
4
フレーム問題
5
トイ・プロブレム
6
チューリングテスト
7
ジョン・サール
8
ディープラーニング
9
2045
10
ヒューリスティックな知識
11
モンテカルロ法
12
ブルートフォース法
13
Mini-Max法
14
オントロジー
15
ウェブマイニング
16
ライトウェイトオントロジー
17
ヘビーウェイトオントロジー
18
スパムフィルター
19
ILSVRC
20
STRIPS
21
SHRDLU
22
DENDRAL
23
マイシン
24
ファインチューニング
25
トランスフォーマー
26
コーパス
27
知識獲得のボトルネック
28
2021
29
次元の呪い
30
特徴抽出
31
セマンティックウェブ
32
LOD
33
ALexNet
34
VGG
35
GoodLeNet
36
ResNet
37
ムーアの法則
38
線形回帰
39
ラッソ
40
単回帰分析
41
ロジスティック回帰
42
シグモイド関数
43
ソフトマックス関数
44
ランダムフォレスト
45
ブーストラップサンプリング
46
アンサンブル学習
47
ブースティング
48
サポートベクターマシン
49
カーネル関数
50
自己回帰モデル
51
k-means法
52
ウォード法
53
最短距離法
54
主成分分析
55
協調フィルタリング
56
コールドスタート問題
57
コンテンツベースフィルタリング
58
トピックモデル
59
バンディットアルゴリズム
60
マルコフ決定過程モデル
61
価値関数
62
方策勾配法
63
訓練データ
64
テストデータ
65
交差検証
66
ホールドアウト検証
67
k-分割交差検証
68
予測誤差
69
混同行列
70
過学習
71
ROC曲線
72
情報量基準
73
複数のモデルをそれぞれ別に学習させ、各モデルの出力を平均もしくは多数決することで決める手法のこと
74
多クラス分類には、ソフトマックス関数が用いられる
75
株価予測
76
デンドログラム
77
協調フィルタリング
78
コンテンツベースフィルタリング
79
データセットに含まれるデータの件数が少ない時
80
クラスタリング
81
Q学習
82
特徴量
83
曜日ごとの平均売上
84
C. 教師あり学習では、予測時には特徴量のみを入力として使用する。
85
回帰タスク
86
ソフトマックス
87
シグモイド
88
ランダムフォレスト, k近傍法, ニューラルネットワーク
89
k近傍法では、距離に基づいて近いk個のデータから予測を行う。
90
活性化関数は、ネットワークを非線形にする役割がある。
91
学習データへの過学習を抑制すること。
92
Lasso回帰は特徴量の選択に有効である。
93
係数を小さく保ち、過学習を抑える。
94
分類問題
95
正解と予測値の差の二乗平均を取る。
96
出力を確率として解釈できる。
97
複数のモデルを組み合わせて予測精度を高める
98
誤分類されたデータに重点を置きながら学習を進める。
99
ブーストラップサンプリングを利用する。
100
同じデータ点が複数回選ばれる可能性がある。