暗記メーカー

お問い合わせ
ログイン
データサイエンス復習プリント 8回〜
  • 田村菜々加

  • 問題数 99 • 7/12/2023

    問題一覧

  • 1

    第8回 パターン認識とは、観測されたパターンをある①に分類する操作のこと。 画像や音声データを②する場合によく利用される。

    カテゴリー, 識別

  • 2

    第8回 パターン認識の流れの順に並べ替えなさい。

    データ入力, 前処理, 特徴抽出, 分類識別, 結果出力

  • 3

    第8回 パターン認識の分類 ①:教師あり学習(パラメトリック検定、ノンパラメトリック検定など) ②:教師なし学習(主成分分析、クラスター分析など)

    分類, クラスター化

  • 4

    第8回 教師なし学習とは、①なパターン認識とも呼ばれ、説明変数のみのデータ行列に潜在的な②の存在を仮定して分析する。

    探索的, 目的変数

  • 5

    第8回 教師なし学習の代表的な手法は、①、②、③。

    主成分分析, 因子分析, クラスター分析

  • 6

    第8回 主成分分析とは、多変量データの特徴を抽出し、いくつかのカテゴリーに分類するための、新しい①を求める方法。 観測データを分析して、新しい②を作る。

    合成変数, 指標

  • 7

    第8回 因子分析とは、多変量データを説明する潜在的な少数の①を見つける方法。説明変数を、②と特殊因子に分解する点に、主成分分析との違いがある。

    因子, 共通因子

  • 8

    第8回 クラスター分析とは、あるデータ群を数値データの①によって分類する方法。非階層的な手段と、階層的な手段がある。

    類似性

  • 9

    第8回 教師あり学習とは、①が存在するデータに適応するものであり、目的変数を基準として、解析結果の②を評価する。量的分析、質的分析のどちらも扱える。

    目的変数, 妥当性

  • 10

    第8回 教師あり学習の代表的な手段は、①、②、③など。

    k-NN法, 判別分析, ロジスティック回帰分析

  • 11

    第8回 k-NN法とは、統計的な分布を仮定しない、①な手法。データ間の②に基づいて分類する手法。

    ノンパラメトリック, 距離

  • 12

    第8回 判別分析とは、複数の①を持つデータを、その変数に基づいて各データがどのカテゴリーに属するかを判別。

    説明変数

  • 13

    第8回 ロジスティック回帰分析とは、時間経過の中で起こる現象を解析する①や、機械学習における②の一つの手法として利用される。 複数の要因から特定の事象が起こる③を求める。

    時系列分析, 分類・識別, 確率

  • 14

    第8回 決定木分析とは、あるデータ群をいくつかのクラスに分けるため、いくつかの判断経路とその分類結果を①によって視覚的に表現する方法。 一定の②を基準とした分岐を作り、データを分類する。

    木構造, 閾値

  • 15

    第9回 多変量解析とは、複数の①を持つデータの統計解析を行う手法であり、複雑な現象の解析を行い、②の予測を行うことを目的とする解析手法である。

    変数, 目的変数

  • 16

    第9回 広い意味で捉えると、変数の多いデータの解析は、そのほとんどが①と言える。代表的なものに、単回帰分析や重回帰分析などの②がある。

    多変量解析, 線形回帰分析

  • 17

    第9回 線形回帰分析は多変量解析の代表格であり、非常にシンプルな分析手法で、簡単に実装できるが、予測に使うには①は期待できないなどの特徴がある。また、結果の②が容易であるため、実務で使われることが多い。

    精度, 解釈

  • 18

    第9回 線形回帰分析は、ある変数を用いて他の変数を説明・予測する①を作ることである。

    モデル

  • 19

    第9回 線形回帰分析では、二つのデータの関係を、「①」などの方程式に置き換える。このとき、xが1つの場合を②、xが複数の場合を③という。

    y=ax+b, 単回帰分析, 重回帰分析

  • 20

    第9回 また、y=ax+b で表される回帰式において、yを①といい、xを②という。

    目的変数, 説明変数

  • 21

    第9回 線形回帰分析の評価尺度について,複数の線形回帰式があり、どちらの式が適切か判断に迷う場合は、①にて評価し、この評価値が小さい直線式が、最適な回帰モデルとなる。

    平均二乗誤差

  • 22

    第9回 MSEが小さくなるパラメータを求める方法は、点と直線の距離の二乗和が最小となるパラメータを求める、①を用いるのが一般的である。

    最小二乗法

  • 23

    第9回 線形回帰モデルの最適なパラメータを求めるには、正規方程式を解く解析的な解法ではなく、数値的な解法である①を用いる。

    勾配降下法

  • 24

    第9回 線形回帰モデルを推定する上での留意点としては、変数間の相関が高いことに起因して起こる①や、変数が多すぎる場合に起きる②、関係のない変数や0値ばかりの変数を扱うことで起こる③な状態になることに気をつける。

    多重共線性, 過学習, スパース

  • 25

    第9回 線形回帰モデルの評価指標には、回帰式の予測精度を0〜1で示した①や、実測値と計算値の差である②、F値などを用いる。

    決定係数, 残差

  • 26

    第9回 説明変数に利用するデータには、数字に意味がある①データと、数字に意味がない②データの2種類がある。 ②には、文字データを数値化(0,1)した③が含まれる。

    定量的, 定性的, ダミー変数

  • 27

    第9回 定性的な説明変数のうち、文字データを0と1に数値化し、説明変数に入れるものを、①という。

    ダミー変数

  • 28

    第9回 非線形回帰分析では、変数を対数に変換する①を行うことで、直線の単回帰分析が可能となる場合もある。

    対数変換

  • 29

    第9回 線形回帰分析は、目的変数と説明変数の関係性を①で表していた。 非線形回帰分析は、線形回帰分析を発展させたもので、変数間の関係性を曲線などの②で表すことができる。

    直線, 非線形

  • 30

    第10回 ベイズ統計学とは、①を基礎とした学問で、応用範囲がすごく広く、②な考え方を用いている。

    ベイズの定理, 確率的

  • 31

    第10回 ベイズ統計学の歴史は、1763年、①によって提唱された。

    トーマス・ベイズ

  • 32

    第10回 長い間避けられてきたベイズ統計は、使う人の恣意性や①な確率が取り込まれてしまうという問題があった上、②が複雑で解析的に解けないことも多かった。

    主観的, 積分計算

  • 33

    第10回 近年、ベイズ統計は、コンピュータの①や②の台頭(解析手法の進化)により注目されてきた。

    高性能化, 機械学習

  • 34

    第10回 記述統計学は、サンプルをもとに、集計し視覚化することで事象を理解する学問。 推測統計学は、 そのサンプルからそのデータ群の全体である①を予測するものである。 一方、ベイズ 統計学は、サンプル数が少ない状態から、ある事象を予測するもので、②を使う点 において、前者とは異なる。

    母集団, 確率論

  • 35

    第10回 従来の統計学は、データがたくさんないと①な結果が出せない上、データを入手するたびに②による再計算が必要であった。

    正確, 全データ

  • 36

    第10回 ベイズ統計学は、少ないデータでもある程度の結果が出せ、①から予測ができる。しかも、考え方が比較的わかりやすい。

    曖昧なデータ

  • 37

    第10回 ベイズ統計学の活用事例には、①の振り分け、②の予測変換、入力文字の漢字変換・スタンプ予測、おすすめ商品表示、などがある。

    スパムメール, 検索エンジン

  • 38

    第10回 ベイズ統計学の考え方は、①を、新しく得られた情報で更新し、②を算出する。

    事前確率, 事後確率

  • 39

    第10回 事前分布と事後分布の定義 ①:情報(データ)を入手する前に想定していた確率分布 ②:情報(データ)を用いて事前分布を修正した確率分布 ③:データのもっともらしさの度合い

    事前分布, 事後分布, 尤度

  • 40

    第10回 ベイズ統計学が実務で使われる理由 従来の統計学では、溜まったデータをまとめて解析して 結論を導くが、一方で、ベイズ統計学は、情報が入るたびに①が更新され、結論を導く。 全データの再計算の手間、②が不要で、①さえあれば、元データを残す必要はない。人間的な思考ロジックである

    事後確率, データ蓄積

  • 41

    第11回 ポケモンの「進化」は生物学的には進化ではなく、①である。 ①とは、同じ動物が形態を変えること。

    変態

  • 42

    第11回 ポケモンの進化は、①を経ておらず、同じ個体が姿を変えているだけ。

    世代

  • 43

    第11回 「変態」とは、動物の正常な生育過程において①を変えること。

    形態

  • 44

    第11回 進化計算とは、生物の①を真似て知識を獲得する機械学習の手法の一つ。

    進化のメカニズム

  • 45

    第11回 生物の遺伝と進化のメカニズムを模倣したモデルを用いて、学習や推論を行う①がある。

    遺伝的アルゴリズム

  • 46

    第11回 生物は、環境にうまく適応できると増殖できるが、適応できない場合は、①の原理により、最終的に絶滅する。

    自然淘汰

  • 47

    第11回 単細胞生物のような下等生物は、①によって増殖が行われ、遺伝子はコピーされて,ほとんど変わらず子孫へと伝わる。

    体細胞分裂

  • 48

    第11回 高等な生物の増殖は有性生殖で行われ、遺伝子の①によって父方と母方の遺伝子が混ざり合い、少しずつ異なる個体が生まれる。

    交叉

  • 49

    第11回 遺伝子コピーにあたってエラーが生じることがあり、①が生じて生物の多様性が広がることがある。

    突然変異

  • 50

    第11回 遺伝的アルゴリズム(GA)は、進化計算のひとつで、設計変数を( ① )と見立てて、( ② )的な遺伝の法則を模倣したモデルを用いてデータを操作し、様々な問題解決 や学習、推論などに応用することが可能なアルゴリズムである

    遺伝子, 進化論

  • 51

    第11回 遺伝的アルゴリズム(GA)における遺伝子とは、生物学的な見地から①のうち遺伝情報を担う部分を示しており、特定の遺伝子は②の遺伝子座(位置)に存在し、③によって表現されている。

    DNA, 染色体, 塩基配列

  • 52

    第11回 遺伝的アルゴリズムの基本操作について、遺伝アルゴリズムは、シンボルや数値を①に並べ、それを解として扱い、その位置を遺伝子座として扱う。 ②→③→④の3つの処理プロセス(+淘汰)で構成される。

    一次元, 選択, 交叉, 突然変異

  • 53

    第11回 遺伝的アルゴリズムの処理プロセス 「選択」は、各個体の適応度の分布に従って,個体の①を決定する。

    生存分布

  • 54

    第11回 生存分布の決定放送には、ルーレット方式や、①保存方式、期待値方式、②方式など、様々な方法がある。

    エリート, トーナメント

  • 55

    第11回 遺伝的アルゴリズムの処理プロセス 「交叉」は、二つの①の間で、遺伝子を組み換えて新しい個体を発生する。

    染色体

  • 56

    第11回 遺伝的アルゴリズムは、科学、工学、ビジネス、社会科学などの広い分野において,巡回セールスマン問題やナップザック問題、経路最適化などの①を解く手法として利用されている。

    組み合わせ最適化問題

  • 57

    第11回 ①:一定の容量の入れ物に、重さの違う複数の荷物を効率よく詰める方法を考える問題。 ②:宅配便の配送計画など、顧客をどういう順番で回れば一番いいかを求める問題。

    ナップザック問題, 巡回セールスマン問題

  • 58

    第11回 遺伝的アルゴリズムの長所は、幅広い応用範囲により様々な問題に適応できる点で、短時間で比較的優れた解を求めることができる。 また、①のみの評価に基づくため、アルゴリズムが単純で、答えのない問題に対して②を見つけ出せる、まさに人工知能的なアルゴリズムである。

    適応度, 近似解

  • 59

    第11回 遺伝的アルゴリズムの短所は、①が高いが、一般的な解法が確立されていない点。数学的知識と②が必要。

    汎用性, プログラミング力

  • 60

    第12回 数値を予測するもので、データの分析の基礎となるものを①という。将来の予測や②などでも用いられる。

    回帰, 要因分析

  • 61

    第12回 データをカテゴリに分類し、分類結果を用いてどちらのグループに所属するか判別することを①といい、画像や言語、音声などにも活用されている。

    分類

  • 62

    第12回 ①は、もともと手書き文字などの画像を機械に認識させるための②として発展してきた。③の高さや応用分野の広さから、データ分析の現場において最も注目を集めている。

    サポートベクターマシン, 分類アルゴリズム, 汎用性

  • 63

    第12回 サポートベクターマシン(SVM)は、機械学習の①の一つで、AIの基礎となる。

    パターン認識

  • 64

    第12回 連続値の予測への拡張も可能であり、それをSVR(①)と呼んでいる。

    support vector regression

  • 65

    第12回 サポートベクターマシンの特徴 ・計算コストが比較的大きいこと ・(①)なデータセットには不向きで、(②)のデータセットで使われていること ・大規模で高度な分析においてのファーストトライとして使うことが多いこと ・データ数が少ない場合は、最も(③)が高い手法であると言われている

    大規模, 中小規模, 精度

  • 66

    第12回 マージン最大化法とは、「①」と呼ばれる考えに基づき、主に2値の②に使われるものである。

    マージン最大化, 分類問題

  • 67

    第12回 2つのカテゴリの識別の際、境界付近にあるデータをもとに①と呼ばれる幅のある境界を求め、その中央を通る②を求める方法である。

    マージン, 分離境界面

  • 68

    第12回 カーネル法とは、非線形データの分類方法で、①と呼ばれる②を用いて、③の高次元空間への写像を行うものである。

    カーネル, 写像関数, 超平面

  • 69

    第12回 一般に、「データの①が上がると、高次元空間では②な状態に近づいていく」ことが知られている。

    次元, 線形分離可能

  • 70

    第12回 サポートベクターマシンの実社会での応用例を全て選択せよ。

    手描き文字認識, 画像認識, 情報検索

  • 71

    第12回 ある程度の誤差を認める線形分離方法で、マージン内にデータが入ることを許す。実データにはノイズが入っていることが普通なので、実際の機械学習で主に使われている。

    ソフトマージンSVM

  • 72

    第13回 ①の4つのレベル Level1:②な制御プログラム。電源のon-offなど Level2:③な人工知能。特定の環境のみ複雑に動ける。 Level3:④。教師あり学習など Level4:⑤。教師なし学習など

    人工知能, シンプル, 古典的, 機械学習, ディープラーニング

  • 73

    第13回 人間の脳の中で起きる反応や動物の①の一部を模倣して、その機能をコンピュータ上でモデル化した手法を②という。

    神経回路, ニューラルネットワーク

  • 74

    第13回 神経細胞のことを英語で①といい、人間の脳には、約②個のニュー ロンがある。

    ニューロン, 800億

  • 75

    第13回 ニューラルネットワークを用いれば、入出力関係が( ① )できない問題でも、②することで、( ③ ) を算出できる

    定式化, 学習, 近似解

  • 76

    第13回 階層型ニューラルネットワークは、入力層、中間層( =① )、出力層の 3 層構造となっており、 各層の( ② )で繋がっている

    隠れ層, 重み付き結合

  • 77

    第13回 生物の体の主な構成要素は、①であり、特に脳を主に構成する要素は、②細胞と③細胞である。

    細胞, 神経, グリア

  • 78

    第13回 ニューロン同士の、電気的な結合を①という。

    シナプス

  • 79

    第13回 ニューラルネットワークの語源にもなっているニューロンは、多種多様な形態をしており、運動ニュ ーロンや①細胞、②細胞、③細胞などが組み合わさっ て、人間の④が形成されている

    錐体, プルキンエ, 嗅, 脳

  • 80

    第13回 ニューラルネットワークを数理モデル化したものを①という。

    ニューロンモデル

  • 81

    第13回 0から1までの値を出力し、確率を出すイメージを①という。

    シグモイド関数

  • 82

    第13回 現実的な多くの問題は、多変量解析やパターン認識のような( ① )によって解を求める事が困難である。 しかしニューラルネットワークは、(② )を考慮し、かつ統計的手法のほとんどをカバーできるため、複雑な解析も可能である。 また、入出力関係が定式化できない問題も、( ③ )することで、近似解を算出できる。

    線形変換, 非線形性, 学習

  • 83

    第13回 階層化されたニューラルネットワークを( ① )ニューラルネットワークという

    階層型

  • 84

    第13回 「学習する」とは、望み通りの出力が得られるように、( ① )を適切に調整することを表す

    重み付きパラメータ

  • 85

    第13回 学習の目標とは、それぞれ定めた( ① )を最小化することである

    損失関数

  • 86

    第13回 最適な重み付きパラメータを求める際は、( ① )がよく利用される

    勾配降下法

  • 87

    第14回 1956 年:AI の夜明け ①ではじめて「人工知能」という言葉を提唱。提唱者は、ダートマス大学の数学の教授②であった。

    ダートマス会議, ジョン・マッカーシー

  • 88

    第14回 マサチューセッツ工科大学のジョセフ・ワイゼンバウム氏により、初の自然言語処理プログラム(①)が開発された

    イライザ

  • 89

    第14回 1980 年代の第 2 次 AI ブームに、専門知識を取り込んだ「①」の開発

    エキスパートシステム

  • 90

    2010年代の第3次AIブームに、機械学習の実装手法の一つで、人間が行うタスクをコンピュータに覚えさせ、複雑な問題を解決するための技術「①」が登場。

    Deep Learning

  • 91

    第14回 思考ゲームと AI の歴史は、2011 年に米 IBM が開発した「①」が米クイズの歴代チャンピオンに勝利する快挙を達成した。

    ワトソン

  • 92

    第14回 2015 年、Google が買収した Deep Mind 社の囲碁 AI「①」が欧州王者に勝利した。 また、2016 年には、韓国のトッププロに勝利した。この技術の鍵となるのは、ディープラーニングを活用した、局面の②技術である。

    アルファ碁, 認識

  • 93

    第14回 生き物ではないものに、人のような①を獲得させるための技術の総称を、(②) という

    学習能力, 機械学習

  • 94

    第14回 人工知能「ワトソン」は、テキストや画像などの①に対する回を見つけることが目的である。 「ワトソン」は、与えられた質問に対し解答を返す、②技術の実現に成功した。

    非構造情報, 質問応答

  • 95

    第14回 ディープラーニング革命として挙げられる 3 つの技術 ①:「画像認識」が可能 ②:ロボット・機械の熟練動作 ③:文と映像の相互変換

    認識, 運動の習熟, 言語の意味理解

  • 96

    第14回 「認識」技術における、第 3 次ブームまでの人工知能の壁について、3 つの難題 ①:例外対応できない ②:変数の設計が困難 ③:シンボルの操作ができない

    フレーム問題, 特徴量の設計, シマウマ問題

  • 97

    第14回 人間の脳の神経細胞の働きを模倣した技術(①)を拡張した、教師なし学習のさらに凄いやつを、「②」という。(=③)

    ニューラルネットワーク, ディープラーニング, 拡張型ニューラルネットワーク

  • 98

    第14回 これまでの人工知能は、人間が実世界の事象を①し、「着目する場所(②)を探して、モデル構築を行っていたため、③化部分に人間が大きく介在していたことが壁を越えられない原因となっていた。

    観察, 特徴量, モデル

  • 99

    第14回 ディープラーニングは、データをもとに「①」を自動的に判断し、人工知能に自ら( ②)させるための技術で、トロント大学の(③) 教授らが開発したものである。

    何が重要か, 学習, ジェフリー・ヒントン