記憶度
3問
7問
0問
0問
0問
アカウント登録して、解答結果を保存しよう
問題一覧
1
線形回帰モデルは、(ア)と(イ)の線形結合として表される
(ア)説明変数 (イ)定数項
2
線形回帰モデルを表す式において、各特徴量にかかっているパラメータが表すものとして、適切な選択肢を選べ
モデルへの寄与の大きさ
3
線形回帰モデルにおいて、説明変数が2つ以上の場合を(ア)モデルと呼び、その場合の各説明変数にかかる係数を(イ)と呼ぶ
(ア)重回帰 (イ)偏回帰係数
4
教師あり学習の機械学習手法の1つとして、特定の変数と閾値について条件分岐を繰り返すことによって解く(ア)という手法がある
決定木
5
決定木は、ツリーの枝分かれ構造のように特定の変数の値によってデータを分割し続ける手法である。分類問題に決定木を適用する際のデータ分割の基準として、あてはまる選択肢を選べ
情報利得の最大化
6
サポートべクトルマシン(SVM)において(ア)は一部のサンプルの誤分類に寛容になるようにし、汎化性能を高めるために導入されている
スラック関数
7
決定木のツリー構造(木構造)は各節において2つに枝分かれする。その際にデータに対して条件分岐を行う。ツリー構造の一番下の階層にある(ア)にたどり着くと、その(ア)に対する値が予測値として出力される
葉
8
決定木におけるデータの扱いについて、不適切な選択肢を選べ
終端ノードに割り当てるデータの数は自動的に最適化される
9
決定木において無制御2木を成長させていくと、最終的には1つの葉に1つのデータのみ割り振りされている状態になりがちである。これにより(ア)が起こりやすくなる
オーバーフィッティング
10
ランダムフォレストを構成するそれぞれの決定木が学習に使うデータは、(ア)という手法を用いて抽出される
ブートストラップ
11
サポートベクトルマシンに取り入れるカーネル法の目的として、適切な選択肢を選べ
データを高次元に写像する
12
SVMにおいて、計算量を減らすために用いられる手法として適切な選択肢を選べ
カーネルトリック
13
複数の決定木を用いた機械学習の活用に関して、不適切な選択肢を選べ
複数の決定木を並列に学習させ、誤った予測を出力した木を棄却することで高精度なモデルが得られる
14
決定木を逐次的に学習させ、誤予測したサンプルに対する重みを増やすことで、後続の学習期において精度を高める手法として、適切な選択肢を選べ
勾配ブースティング
15
ディープラーニングを利用する上で、留意すべきことについて適切な選択肢を選べ
非構造化データの特徴量に対して高精度な予測ができるが、構造化データには使用することが難しい
16
(ア)のアルゴリズムの1つであるK-Meansでは、データ同士の(イ)をもとに、それらを複数のグループに分割する手法がある。顧客セグメンテーションなど、正解ラベルが付与されていないデータでも利用することができる
(ア)クラスタリング (イ)類似度
17
K-Meansでは、初期的にデータをいくつかのクラスタに分割し、続いて各クラスタの特徴量空間上の(ア)を計算し、各テータを一番近い(ア)のクラスに割り当て直す。この操作を(イ)までくりかえす
(ア)重心 (イ)データの分配状況が変動しなくなる
18
K-Meansでは初期状態において、データを適当にグループに分ける。グループの数が最終的なモデルの精度に影響することがある。グループの数の決め方として、適切な選択肢を選べ
ユーザが自由に決める
19
クラスタリングに使われるデンドログラムについて適切な選択肢を選べ
上からどの位置で線を引くかによって結果が左右されやすい
20
高次元データの次元圧縮あるいは可視化に使われるアルゴリズムとして不適切な選択肢を選べ
K近傍法