問題一覧
1
1969年にジョン・マッカーシーとパトリック・ヘイズが提唱した人工知能における重要な問題で、「今しようとしていることに関係のある事柄だけを選び出すことが、実は非常に難しい」ことを指す問題は何か?
フレーム問題
2
人工知能ができたかを判断する方法の一つにイギリスの数学者(1)が提唱した(2)があります。これは別の場所に知る人間がコンピュータと会話し、相手がコンピュータだと見抜けなければコンピュータには知能があるとするものです。1991年以降、(2)に合格する会話ソフトウェアを目指す(3)も毎回開催されています。
アラン・チューリング, チューリングテスト, ローブナーコンテスト
3
(1)-適切にプログラムされたコンピュータは人間が心を持つのと同じ意味で心を持つ。また、プログラムそれ自身が人間の認知の説明である。 (2)-コンピュータは人の心を持つ必要はなく、有用な道具であればよい。
強いAI, 弱いAI
4
1990年に認知科学者のスティーブン・ハルナッドにより議論された問題で、記号とその対象がいかにして結びつくかという問題をなんというか?
シンボルグラウンディング問題
5
機械翻訳は人工知能が始まって以来ずっと研究が続いています。1970年代後半は(1)という仕組みが一般的でしたが、1990年代以降は(2)が主流になりました。
ルールベース機械翻訳, 統計的機械翻訳
6
コンピュータが知識を獲得することの難しさを、人工知能の分野では(1)の(2)と呼んでいる
知識獲得, ボトルネック
7
人間が特徴量を見つけ出すのが難しいのであれば、特徴量を機械学習自身に見つけさせれば良い。このようなアプローチは(1)と呼ばれている
特徴表現学習
8
人工知能が十分に賢くなり、自分自身よりも賢い人工知能を作るようになった瞬間、無限に知能の高い存在を作るようになり、人間の想像力の及ばない超越的な知能が誕生するという仮説のことを(1)という
シンギュラリティー
9
トイ・プロブレム(おもちゃの問題)に関する説明として、不適切なものを1つ選べ
トイ・プロブレムは現実世界の問題を簡略化したものなので、それを解けば我々が普段するような現実世界の問題も解くことができる。
10
フレーム問題に関する説明として、不適切なものを1つ選べ
フレーム問題は人工知能に特有の問題であり、人間には起きないと考えられる
11
チューリングテストに関する説明として、不適切なものを1つ選べ
チューリングテストは、人工知能の会話能力レベルを判定する方法の一つとして、イギリスのアラン・チューリングが提唱したものである。
12
強いAIと弱いAIに関する説明として、不適切なものを1つ選べ
ジョン・サールは「強いAI」は実現可能だと主張し、「中国語の部屋」という思考実験を提案した。
13
シンボルグラウンディング問題に関する説明として不適切なものを1つ選べ
人間の場合もシンボルグラウンディング問題は起きる
14
知識獲得のボトルネックに関する説明として、不適切なものを一つ選べ
統計的機械翻訳は、膨大な対訳データ(コーパス)を利用して文単位のレベルで翻訳できたので、一般常識がなくても精度の高い翻訳ができた
15
特徴量に関する説明として不適切なものを一つ選べ
機械学習は人間には理解できない特徴量を自動的に抽出してしまうので「判断理由を説明できないブラックボックス型の人工知能」だと言われている
16
ある店舗のある日の午後のビールの売り上げ予想のために用いる特徴量として適切ではないと考えられるものを一つ選べ
前日の購買者の平均年齢
17
未来学者レイ・カーツワイルが主張する「シンギュラリティー(技術的特異点)」に関する説明として、不適切なものを一つ選べ
シンギュラリティーとは「人工知能が人間よりも賢くなること」で、それが起こるのは2029年ごろであると予想している
18
機械学習の学習の枠組みは、(3)、(2)、(1)の3つに分けることができる。(1)は、事前に学習した正しい入出力の組み合わせをもとに、新たな入力に対して適切な出力を得ようとする学習である。(2)は、入力データのみを使用して、データそのものが持つ構造・特徴を出力する。(3)は、行動を学習する仕組みで、ある環境下で、目的とする報酬(スコア)を最大化するにはどのような行動をとっていけばいいかを学習していくこと。
教師あり学習, 教師なし学習, 強化学習
19
ニューラルネットワークは、(1)と分類問題の両方に用いることができる。
回帰問題
20
教師あり学習は、入力データをもとに出力データがどんなものになるかを識別、予測するもので、過去の売り上げから、将来の売り上げを予測したい場合は数字(連続する値)を予測する問題(1)、動物画像の識別の場合はカテゴリ(連続しない値)を予測する問題は(2)という。
回帰問題, 分類問題
21
教師あり学習の問題は出力値の種類によって、大きく2種類に分けられる。(1)問題は出力が離散値であり、カテゴリを予測したい時に利用される。(2)問題は出力が連続値であり、その連続値そのものを予測したい時に利用される
分類, 回帰
22
回帰問題に用いられる代表的な手法に(1)という、統計でも用いられる手法がある。データの分布があったときに、そのデータに最も当てはまる直線を考えるというものである。
線形回帰
23
線形回帰は回帰問題に用いる手法だが、その分類問題版が(1)である。このモデルの出力には、(2)関数を使用する。また、2種類の分類ではなくそれ以上の分類を行う場合には(2)関数ではなく、(3)関数を用いる
ロジスティック回帰, シグモイド, ソフトマックス
24
教師あり学習の手法で、決定木を使用する方法を(1)と呼ぶ。それぞれの決定木に対してランダムに特徴量を取り出し(2)学習に使用する。それぞれの決定木の結果を多数決によってモデルの最終出力を決める手法である。
ランダムフォレスト, ブーストラップサンプリング
25
全体から一部のデータをもちいて複数のモデルを用いて学習する方法を(1)といい、(1)の中で決定木をもいちる手法を(2)という。このように複数のモデルで学習させることを(3)という
バギング, ランダムフォレスト, アンサンブル学習
26
バギングと同様に一部のデータを繰り返し抽出し、複数のモデルを学習させるアプローチを取る手法(1)がある。(1)でよ、モデル部分は決定木が用いられており、(2)などが有名です。バギングと異なり、逐次的に学習を進めるため、学習にかかる時間が多くなります。
ブースティング, 勾配ブースティング
27
(1)は(2)とも呼ばれ、入力に用いる異なるクラスの各データ点との距離が最大となるような境界線を求めることでパターン分類を行う手法である。この距離を最大化することを(3)という
サポートベクターマシン, svm, マージン最大化
28
サポートベクターマシンの手法では、データをあえて高次元に写像することで、その写像後の空間で線形分類できるというアプローチが取られました。この写像に用いられる関数を(1)、その際、計算が複雑にならないように式変形するテクニックのことを(2)という
カーネル関数, カーネルトリック
29
機械学習を適用する場合、何を評価したいのかを明確にする必要がある。課題ごとに用いられる手法で代表的なのは4つあります。 (1):全データ中、どれだけ予測が当たったかの割合 (2):予測が正のものの中で、実際に正であったものの割合 (3):実際に正であるものの中で、正だと予測できた割合 (4):(2)と(3)の調和平均
正解率, 適合率, 再現率, F値
30
訓練データとテストデータのようにデータを分割して評価することを(1)と言い、訓練データのみに適応するような状態に陥ることを(2)という
交差検証, 過学習
31
(1)は、学習の際に用いる式に項を追加する事によって取りうる重みの値の範囲を制限し、過度に重みが訓練データに対してのみ調整されること(過学習)を防ぐ役割を果たす。しかし(1)をしすぎても(2)の状態に陥ることがある。
正則化, 未学習
32
L1正則化は、一部のパラメータをゼロにすることで、特徴選択を行うことができる。 L2正則化は、パラメータの大きさに応じてゼロに近づけることで、汎化された滑らかなモデルを得ることができる。 線形回帰に対して、L1正則化を適用した手法を(1)、L2正則化を適用した手法を(2)両方を組み合わせた手法を(3)という
ラッソ回帰, リッジ回帰, Elastic Net
33
予測の当たりはずれ(モデルの性能)がどのように変化していくのかを視覚的にとらえることが出来る指標を(1)と呼び、(1)より下部の面積のことを(2)と呼ぶ。(2)が1に近いほどモデルの性能が高いことを示す。
ROC曲線, AUC
34
多くの機械学習(ディープラーニング)のモデルは、予測の根拠を示すのを苦手としている。モデル全体の説明は困難でも局所的に説明性を持たせていこうとするアプローチの一つに「もともとの複雑なモデルを(特定のデータを対象に)単純に線形モデルに近似することによって特徴量の寄与度を図ることで説明性を持たす」(1)という手法がある。他にも(2)という手法がある
LIME, SHAP
35
モデルが複雑になればなるほど、学習に必要な計算コストが増えてしまうので「ある事柄を説明するためには、必要以上に多くを仮定すべきでない」という指針を示す(1)に従うのが望ましいといえる。解きたいタスクに対して実際にモデルをどのぐらい複雑にすればよいかという問題に対して、目安の一つとして(2)(略英字(3))という指標がある。これはいわば「モデルの複雑さと予測精度のバランス」を考えたものです。
オッカムの剃刀, 赤池情報量規準, AIC
36
ディープラーニングに関する下記の説明のうち最も適しているものを1つ選べ
ディープラーニングはより複雑な関数を表現できる分、過学習に注意が必要である。
37
2クラスの分類を考えた際、それぞれのデータ数が同じだけある場合は(1)を評価指標として用いるのは問題ないが、どちらかのクラスのデータが極端に多い(あるいは少ない)場合には注意が必要である。例えば「クラス1」のデータ数が25、「クラス2」のデータ数が75だった時、すべてのデータに対して「クラス2」と予測すると、(1)は75%となるが「クラス1」と予測が全くできていないので、学習がうまくいっていない可能性が高い。このような問題を防ぐため、実際に「クラス1」のデータのうち、どれだけ「クラス1」と予測できたかの割合を示す(2)や、「クラス1」と予測したもののうち、どれだけ実際に「クラス1」だったかの割合を示す(3)が用いられる場合もある。一方、(2)と(3)はトレードオフの関係にもあるため、両者の調和平均を用いた(4)が用いられる場合も多い。
正解率, 再現率, 適合率, F値