問題一覧
1
機械学習プロジェクトで「顧客がある商品を買う可能性を__」という目標設定は、問題の__の例です。
予測・定式化
2
カテゴリデータの整形方法で、それぞれのカテゴリに固有の番号を振り分ける手法を__エンコーディングと呼びます。
ラベル
3
数値データの整形方法で、値のlog(対数)を取る(logに変換する)ことを__変換と呼びます。
対数
4
データの整形と特徴量エンジニアリングでは、余分な特徴量の__、別の形式への__、新たな特徴量の__などを行います。
削除、変換、生成
5
1回の学習で「バッジサイズ」として設定した数のデータを読み込む学習方法を__学習と呼びます。
ミニバッジ
6
新しいデータをモデルに適用したいとき、新旧データすべてを入力として学習をやり直す必要がある学習方法を__学習または__学習と呼びます。
バッチ・オフライン
7
全てのデータが検証データとして利用されるよう、学習データとテストデータを入れ替えるなどし、複数の組み合わせを用意する手法を__分割交差検証と呼びます。
K
8
回帰モデルの性能評価指標で、小さいほど良い指標であり、得られる値がそのまま予測値の単位になるものを__と呼びます。
RMSE(平方平均二乗誤差)
9
分類モデルの性能評価指標で、◯として分類したデータのうち、正しく分類できたデータの割合を__率と呼びます。
適合
10
再現率と適合率の平均を取ることでより良い評価指標となるものを__値と呼びます。
F
11
モデルの学習が十分ではなく、性能が低い状態を__と呼びます。
未学習
12
モデルの学習し過ぎによって未知のデータとモデルとの間に生じた誤差のことを__誤差と呼びます。
汎化
13
能動学習の手法の一つで、紛らわしいデータを自ら作り出したあと、判別者が質問を行う方法を__と呼びます。
Membership Query Synthesis
14
1回の学習で1つのデータのみを読み込む学習方法を__学習と呼びます。
オンライン
15
未知のデータに対する予測や分類の精度を__性能と呼びます。
汎化
16
「ある関数が大きいときに、他の変数は小さい」という関係を__の相関と呼びます。
負
17
因果分析のガイドラインの一つで、"原因"と"結果"の間に強い関係があると数値(統計)からわかることを__正と呼びます。
強固
18
回帰モデルの性能評価指標で、予測誤差を正規化し0〜1の値で測るものを__と呼びます。
R²(決定係数)
19
スケーリング手法の一つで、データの最小値を0、最大値を1に変換する方法を__スケーリングと呼びます。
Min-Max
20
スケーリング手法の一つで、データの平均を0、標準偏差を1に変換する方法を__と呼びます。
標準化
21
実際に◯だったデータのうち、正しく◯として分類できたデータの割合を__率と呼びます。
再現
22
モデルを何次元にするかといったモデルの大枠を決める値を__と呼びます。
ハイパーパラメータ
23
学習データに対する精度を重視しすぎることで未知のデータへの精度が下がることを__と呼びます。
過学習
24
ハイパーパラメータ候補の中で最も良いハイパーパラメータを選択できる方法を__サーチと呼びます。
グリッド
25
「ある変数が大きいときに、他の変数も大きい」という関係を__の相関と呼びます
正
26
本当は因果関係がない要素間に、見えない外部の要因によって因果関係があるように見えることを__相関と呼びます。
疑似
27
因果分析のガイドラインの一つで、"原因"の後に"結果"が起きることを__先行性と呼びます。
時間的
28
医療分野以外でランダム化比較実験と呼ばれる手法を__テストと呼びます。
A/B
29
システムの振る舞いが環境に影響を及ぼし、次に観測するデータが環境から影響を受けて変化してします現象を__ループと呼びます。
フィードバック
30
回帰分析において、原因1つと結果1つの関係を__で表す手法を単回帰と呼びます。
直線
31
回帰分析で誤差の合計を求めるための式を__関数と呼びます。
損失
32
誤差の2乗の和を取って最小化する方法を最小__誤差と呼びます。
2乗
33
複数の説明変数に対応する回帰分析を__回帰と呼びます。
重
34
重回帰分析において、相関の強い変数を両方説明変数にすると正しく回帰ができなくなる現象を__と呼びます。
多重共線性
35
説明変数の2乗、3乗されたものに対して最適な係数を求める回帰を__回帰と呼びます。
多重式
36
多重式回帰において、最大何乗まで考えるかを__と呼びます。
次数
37
最小二乗法で発生する「外れ値の影響を大きく受けてしまう」という欠点を克服するための回帰を__回帰と呼びます。
ロバスト
38
機械学習モデルの複雑さを制御し、過学習を防ぐために使用される追加の項を__と呼びます。
正則化
39
回帰係数の絶対値の和が基準となる正則化を__正則化と呼びます。
L1
40
回帰係数が正確に0になることはない正則化を__正則化と呼びます。
L2
41
L1正則化を用いる回帰を__回帰と呼びます。
ラッソ
42
L2正則化を用いる回帰を__回帰と呼びます。
リッジ
43
L1, L2正則化の両方を用いた回帰を__回帰と呼びます。
Elastic Net
44
サポートベクトルマシンとは、教師あり学習において「__」「__」「__」を行う方法の1つです。
回帰・分類・外れ値検出
45
サポートベクトルとは、境界に最も近いデータの「__」です。
点
46
サポートベクトルと境界との距離を「__」といい、SVMではこの距離を最大化しています。
マージン
47
4次元以上の空間における分類境界を「__」と呼びます。
超平面
48
ソフトマージンSVMでは、データが境界に近づくことを「__」します。
許容
49
カーネル法では、データから新しい特徴量を使って線形分離可能な高次元特徴空間に『__』する作業を表現します。
写像
50
サポートベクトルマシンは、特徴量が「__」場合に有効です。
多い
51
サポートベクトルマシンは、データの数が多いと「__」に時間がかかります。
計算
52
サポートベクトル回帰(SVR)は、SVMを活用した「__」です。
回帰
53
決定木は、特徴量の値に対して「__」のみによって枝分かれしていきます。
YES or NO
54
決定木は、学習結果の理解や解釈が「__」です。
しやすい
55
決定木は、データ数が多くなっても予測に必要な計算量が「__」です。
少ない
56
決定木は、データの少しの違いで全く違う「__」を出力してしまうことがあります。
予測値
57
アンサンブル学習は、精度の「__」モデルをたくさん作って合体させ、高精度のモデルを作るのが目標です。
低い
58
アンサンブル学習のバギングは、「__」法を用いて全データから訓練データを複数組生成します。
ブートストラップ
59
アンサンブル学習のブースティングは、訓練データを1つ目のモデルに学習させ、「__」部分を正解できるように重視して学習を行います。
間違った
60
ブートストラップ法とは、統計学における「__ 」の一手法であり、母集団から「__」にデータを重複込みで取り出す方法です。
再サンプリング・ランダム
61
ブートストラップ法では、データの「__」を推定し、推定値の信頼区間や「__」を計算する際に用いられます。
分布・標準誤差
62
内積の定義として正しいものはどれですか?
2つのベクトルの対応する成分を掛け合わせて足し合わせたもの
63
内積を表す数式として正しいものはどれですか?
D
64
内積の特徴として正しくないものはどれですか?
C) ベクトルの方向にのみ依存し、長さには影響されない
65
コサイン類似度の定義として正しいものはどれですか?
A) 2つのベクトルの内積をそれぞれのノルムの積で割ったもの
66
コサイン類似度を表す数式として正しいものはどれですか?
D
67
C
68
内積の成分を表す式として正しいものはどれですか?
C
69
A
70
内積とコサインの関係を表す式として正しいものはどれですか?
D