パターン認識の二つの分類: 分類:( )学習:パラメトリック、ノンパラメトリック検定など クラスター化:( )学習:クラスター分析、主成分分析など教師あり, 教師なし
線形回帰分析は、多変量解析の代表格であり、非常にシンプルな分析手法で、簡単に実装できるが、予測に使うには( )を期待できないなどの特徴がある。また、結果の( )が容易であるため、実務で使われることが多い。精度, 解釈
線形回帰分析は、ある変数を用いて他の変数を説明・予測する( )を作ることだ。モデル
線形回帰分析では、二つのデータの関係を、「y=ax+b」などの方程式に置き換える。このとき、xが1つの場合が、「( )」、xが複数の場合を、「( )」という。単回帰分析, 重回帰分析
評価尺度MSEが小さくなるパラメータを求める方法は、点と直線の距離の二乗の和が最小となるパラメータを求める、( )を用いるのが一般的である。最小二乗法
説明変数に利用するデータには、( )的データと( )的データの2種類がある。定量, 定性
従来の統計学は、データがたくさん無いと( )な結果が出せない上、データを入手するたびに( )による再計算が必要であった正確, 全データ
ベイズ統計学の考え方は、( )確率を、新しく得られた情報で更新し、( )確率を算出する。事前, 事後
パターン認識の流れ: データ入力 → 前処理 → ( )→ ( )→ 結果出力特徴抽出, 分類識別
決定木とは、あるデータ群をいくつかのクラスに分けるため、いくつかの判断経路とその分類結果を( )によって視覚的に表現する方法。木構造
また、y=ax+bで表される回帰式において、yを( )変数といい、xを( )変数という。目的, 説明
非線形回帰分析では、変数を対数に変換する、( )を行うことで、直線の単回帰分析が可能となる場合もある。対数変換
ベイズ統計学の歴史は、1763年( )によって提唱された。トーマス・ベイズ
長い間、避けられてきたベイズ統計は、使う人の恣意性や( )な確率が取り込まれてしまうという問題があった上、( )が複雑で解析的に解けないことも多かった主観的, 積分計算
一方、ベイズ統計学は、少ないデータでもある程度の結果が出せ、( )から予測できる。しかも、考え方が比較的分かりやすい曖昧なデータ
ベイズ統計学の活用事例には、( )の振り分け、( )の予測変換、漢字変換・スタンプ予測、おススメ商品表示、などがある。スパムメール, 検索エンジン
パターン認識とは、観測されたパターンをある( )に分類する操作のこと。画像データや音声データを( )する場合などにおいてよく利用される。カテゴリー, 識別
因子分析とは、多変量データを説明する潜在的な少数の( )を見つける方法。説明変数を( )因子と特殊因子に分解する点において、主成分分析との違いがある。因子, 共通
k-NN法とは、統計的な分布を仮定しない( )な手法で、データ間の( )に基づいて分類する方法である。ノンパラメトリック, 距離
判別分析とは、複数の( )を持つデータを、その変数に基づいて各データがどのカテゴリーに属するかを判別。説明変数
定性的な説明変数のうち、文字データを0と1に数値化(二値化)し、説明変数に入れるものを、( )変数という。ダミー
ベイズ統計学とは、( )を基礎とした学問で、応用範囲が凄く広く、( )な考え方を用いているベイズの定理, 確率論
近年、注目されてきたベイズ統計は、コンピュータの( )や( )の台頭(解析手法の進化)により注目されてきた高性能化, 機械学習
記述統計学は、サンプルをもとに、集計し視覚化することで事象を理解する学問で、推測統計学は、そのサンプルからそのデータ群の全体である( )を予測するものである。一方、ベイズ統計学は、サンプル数が少ない状態から、ある事象を予測するもので、( )を使う点において、前者とは異なる。母集団, 確率論
事前分布と事後分布の定義
・( ):情報(データ)を入手する前に想定していた確率分布
・( ):情報(データ)を用いて事前分布を修正した確率分布
・( ):データのもっともらしさの度合い事前分布, 事後分布, 尤度
教師なし学習の代表的な手法は、( )、( )、( )。主成分分析, 因子分析, クラスター分析
主成分分析とは、多変量データの特徴を抽出し、いくつかのカテゴリーに分類するための、新しい( )を求める方法。合成変数
多変量解析とは、複数の( )を持つデータの統計解析を行う手法であり、複雑な現象の解析を行い、( )の予測を行うことを目的とする解析手法である。変数, 目的変数
線形回帰分析の評価尺度について、複数の線形回帰式があり、どちらの式が適切か判断に迷う場合は、( : )にて評価し、この評価値が小さい直線式が最適な回帰モデルとなる。平均二乗誤差, MSE
線形回帰モデルを推定するうえでの留意点としては、変数間の相関が高いことに起因して起こる( )や、変数が多すぎる場合に起こる( )、関係のない変数や0値ばかりの変数を扱うことでおこる( )な状態になることに気をつける。多重共線性, 過学習, スパース
ベイズ統計学が実務で使われる理由は、従来の統計学では、溜まったデータをまとめて解析して結論を導くが、一方で、ベイズ統計学は、情報が入るたびに( )が更新され、結論を導く。全データの再計算の手間、( )が不要で、事後確率さえあれば、元データを残す必要はない。人間的な思考ロジックである事後確率, データ蓄積
教師なし学習とは、( )なパターン認識とも呼ばれ、説明変数のみのデータ行列に潜在的な( )の存在を仮定して分析する。探索的, 目的変数
教師あり学習の代表的な手法は、( )、( )、( )などがある。k-NN法, 判別分析, ロジスティック回帰分析
ロジスティック回帰分析とは、時間経過の中で起こる現象を解析する( )や機械学習における( )の一つの手法として利用。時系列分析, 分類・識別
広い意味で捉えると、変数の多いデータの解析は、そのほとんどが( )と言える。代表的なものに、単回帰分析や重回帰分析などの( )がある。多変量解析, 線形回帰分析
線形回帰モデルの最適なパラメータを求めるには、正規方程式を解く解析的な解法ではなく、数値的な解法である( )を用いる。勾配降下法
クラスター分析とは、あるデータ群を数値データの( )によって分類する方法。非階層的な手法と階層的な手法がある。類似性
教師あり学習とは、( )が存在するデータに適用するものであり、目的変数を基準として解析結果の( )を評価する。量的分析、質的分析のどちらも扱える。目的変数, 妥当性
線形回帰モデルの評価指標には、回帰式の予測精度を0~1で示した( )や、実測値と計算値の差である( )、F値、などを用いる。決定係数, 残差
パターン認識の二つの分類: 分類:( )学習:パラメトリック、ノンパラメトリック検定など クラスター化:( )学習:クラスター分析、主成分分析など教師あり, 教師なし
線形回帰分析は、多変量解析の代表格であり、非常にシンプルな分析手法で、簡単に実装できるが、予測に使うには( )を期待できないなどの特徴がある。また、結果の( )が容易であるため、実務で使われることが多い。精度, 解釈
線形回帰分析は、ある変数を用いて他の変数を説明・予測する( )を作ることだ。モデル
線形回帰分析では、二つのデータの関係を、「y=ax+b」などの方程式に置き換える。このとき、xが1つの場合が、「( )」、xが複数の場合を、「( )」という。単回帰分析, 重回帰分析
評価尺度MSEが小さくなるパラメータを求める方法は、点と直線の距離の二乗の和が最小となるパラメータを求める、( )を用いるのが一般的である。最小二乗法
説明変数に利用するデータには、( )的データと( )的データの2種類がある。定量, 定性
従来の統計学は、データがたくさん無いと( )な結果が出せない上、データを入手するたびに( )による再計算が必要であった正確, 全データ
ベイズ統計学の考え方は、( )確率を、新しく得られた情報で更新し、( )確率を算出する。事前, 事後
パターン認識の流れ: データ入力 → 前処理 → ( )→ ( )→ 結果出力特徴抽出, 分類識別
決定木とは、あるデータ群をいくつかのクラスに分けるため、いくつかの判断経路とその分類結果を( )によって視覚的に表現する方法。木構造
また、y=ax+bで表される回帰式において、yを( )変数といい、xを( )変数という。目的, 説明
非線形回帰分析では、変数を対数に変換する、( )を行うことで、直線の単回帰分析が可能となる場合もある。対数変換
ベイズ統計学の歴史は、1763年( )によって提唱された。トーマス・ベイズ
長い間、避けられてきたベイズ統計は、使う人の恣意性や( )な確率が取り込まれてしまうという問題があった上、( )が複雑で解析的に解けないことも多かった主観的, 積分計算
一方、ベイズ統計学は、少ないデータでもある程度の結果が出せ、( )から予測できる。しかも、考え方が比較的分かりやすい曖昧なデータ
ベイズ統計学の活用事例には、( )の振り分け、( )の予測変換、漢字変換・スタンプ予測、おススメ商品表示、などがある。スパムメール, 検索エンジン
パターン認識とは、観測されたパターンをある( )に分類する操作のこと。画像データや音声データを( )する場合などにおいてよく利用される。カテゴリー, 識別
因子分析とは、多変量データを説明する潜在的な少数の( )を見つける方法。説明変数を( )因子と特殊因子に分解する点において、主成分分析との違いがある。因子, 共通
k-NN法とは、統計的な分布を仮定しない( )な手法で、データ間の( )に基づいて分類する方法である。ノンパラメトリック, 距離
判別分析とは、複数の( )を持つデータを、その変数に基づいて各データがどのカテゴリーに属するかを判別。説明変数
定性的な説明変数のうち、文字データを0と1に数値化(二値化)し、説明変数に入れるものを、( )変数という。ダミー
ベイズ統計学とは、( )を基礎とした学問で、応用範囲が凄く広く、( )な考え方を用いているベイズの定理, 確率論
近年、注目されてきたベイズ統計は、コンピュータの( )や( )の台頭(解析手法の進化)により注目されてきた高性能化, 機械学習
記述統計学は、サンプルをもとに、集計し視覚化することで事象を理解する学問で、推測統計学は、そのサンプルからそのデータ群の全体である( )を予測するものである。一方、ベイズ統計学は、サンプル数が少ない状態から、ある事象を予測するもので、( )を使う点において、前者とは異なる。母集団, 確率論
事前分布と事後分布の定義
・( ):情報(データ)を入手する前に想定していた確率分布
・( ):情報(データ)を用いて事前分布を修正した確率分布
・( ):データのもっともらしさの度合い事前分布, 事後分布, 尤度
教師なし学習の代表的な手法は、( )、( )、( )。主成分分析, 因子分析, クラスター分析
主成分分析とは、多変量データの特徴を抽出し、いくつかのカテゴリーに分類するための、新しい( )を求める方法。合成変数
多変量解析とは、複数の( )を持つデータの統計解析を行う手法であり、複雑な現象の解析を行い、( )の予測を行うことを目的とする解析手法である。変数, 目的変数
線形回帰分析の評価尺度について、複数の線形回帰式があり、どちらの式が適切か判断に迷う場合は、( : )にて評価し、この評価値が小さい直線式が最適な回帰モデルとなる。平均二乗誤差, MSE
線形回帰モデルを推定するうえでの留意点としては、変数間の相関が高いことに起因して起こる( )や、変数が多すぎる場合に起こる( )、関係のない変数や0値ばかりの変数を扱うことでおこる( )な状態になることに気をつける。多重共線性, 過学習, スパース
ベイズ統計学が実務で使われる理由は、従来の統計学では、溜まったデータをまとめて解析して結論を導くが、一方で、ベイズ統計学は、情報が入るたびに( )が更新され、結論を導く。全データの再計算の手間、( )が不要で、事後確率さえあれば、元データを残す必要はない。人間的な思考ロジックである事後確率, データ蓄積
教師なし学習とは、( )なパターン認識とも呼ばれ、説明変数のみのデータ行列に潜在的な( )の存在を仮定して分析する。探索的, 目的変数
教師あり学習の代表的な手法は、( )、( )、( )などがある。k-NN法, 判別分析, ロジスティック回帰分析
ロジスティック回帰分析とは、時間経過の中で起こる現象を解析する( )や機械学習における( )の一つの手法として利用。時系列分析, 分類・識別
広い意味で捉えると、変数の多いデータの解析は、そのほとんどが( )と言える。代表的なものに、単回帰分析や重回帰分析などの( )がある。多変量解析, 線形回帰分析
線形回帰モデルの最適なパラメータを求めるには、正規方程式を解く解析的な解法ではなく、数値的な解法である( )を用いる。勾配降下法
クラスター分析とは、あるデータ群を数値データの( )によって分類する方法。非階層的な手法と階層的な手法がある。類似性
教師あり学習とは、( )が存在するデータに適用するものであり、目的変数を基準として解析結果の( )を評価する。量的分析、質的分析のどちらも扱える。目的変数, 妥当性
線形回帰モデルの評価指標には、回帰式の予測精度を0~1で示した( )や、実測値と計算値の差である( )、F値、などを用いる。決定係数, 残差