暗記メーカー

お問い合わせ
ログイン
G検定
  • ユーザ名非公開

  • 問題数 100 • 5/11/2025

    問題一覧

  • 1

    世界初の汎用電子式コンピューター

    エニアック

  • 2

    ダートマス会議は()年に行われた

    1956

  • 3

    世界初の電子式汎用コンピューター

    エニアック

  • 4

    人工知能が判断を行う際に、それに関連することのみを抽出することが困難であると言うこと。

    フレーム問題

  • 5

    コンピュータで扱いやすくするため、現実世界の問題について本質を損なわない程度に簡略化した問題のこと。

    トイ・プロブレム

  • 6

    「人工知能ができたかどうか」を判定するためのテスト

    チューリングテスト

  • 7

    強いAIは実現不可能とした人物

    ジョン・サール

  • 8

    「判断理由を説明できないブラックボックス型の人工知能」

    ディープラーニング

  • 9

    レイ・カーツワイルは人工知能が人間より賢くなるのは2029年、シンギャラリーが起きる年を()年としている。

    2045

  • 10

    あらかじめ知っている知識や経験のこと。

    ヒューリスティックな知識

  • 11

    コンピュータ2人の仮想的なプレイヤーを演じて、完全にランダムに手を差し続ける方法でゲームをシュミレーションする方法のこと。

    モンテカルロ法

  • 12

    コンピュータを力任せに処理する

    ブルートフォース法

  • 13

    自分の番では、自分が有利になるように手を打つべきで、逆に相手の番では相手が有利になるように、相手は手を打つはずだと言うことを前提に戦略を立てる方法

    Mini-Max法

  • 14

    知識の共有と活用が目的。知識を記述するときに用いる、語彙やその意味、それらの関係性を他の人と共有できるように、明確な約束事を体系的に決めておく。

    オントロジー

  • 15

    WEBデータを解析して知識を取り出すこと

    ウェブマイニング

  • 16

    完全に正しいものでなくても使えるものであれば良いと言う考えから、その構成要素の分類関係の正当化については深い考察は行わないという傾向がある。

    ライトウェイトオントロジー

  • 17

    知識をどのように記述するか哲学的にしっかり考えて行う。

    ヘビーウェイトオントロジー

  • 18

    レコメンデーションエンジンや()は、ビッグデータを利用した機械学習を利用することで実用化に成功したアプリケーション

    スパムフィルター

  • 19

    画像認識の精度を争う「」でジェフリー・ヒントンが率いるトロント大学のチームSuperVisionが開発した「AIexNet」が圧勝した。

    ILSVRC

  • 20

    ロボットなどの行動計画などのプランニングのための手法であり、前提条件、行動、結果の3つで記述する。

    STRIPS

  • 21

    音声認識を使った対話で指示を受け取り、積み木の世界に存在する物体を動かすことをプランニングした

    SHRDLU

  • 22

    未知の有機化合物を特定するために開発されたエキスパートシステム

    DENDRAL

  • 23

    血液中のバクテリアの診断支援を行う。エキスパートシステム

    マイシン

  • 24

    大規模言語モデルは()を行い、論理的かつ適切な解答を生成する能力を向上させる。 事前にトレーニングされたモデルを特定のタスクやユースケースに合わせて調整するプロセスです。 これは、特に生成AIに使用される基盤モデルのトレーニングプロセスにおいて、基本的なディープラーニング手法になっています。

    ファインチューニング

  • 25

    人間レベルの自然な文章を作成できる生成AIの技術を支えている。

    トランスフォーマー

  • 26

    AIが自然言語を扱う文章を構造化し、データベース化したもの。

    コーパス

  • 27

    人間が持っている知識は膨大で、専門知識だけでなく、一般常識も含めたすべての知識をコンピュータに獲得させる事は難しいとされている。

    知識獲得のボトルネック

  • 28

    東ロボ君は、()年に合格ラインを突破した。

    2021

  • 29

    次元の数が増えるほど高い制度のモデルを作るために必要なデータ量が増えてしまうこと。データ次元数が大きくなりすぎると、汎化性能が悪くなることが多い

    次元の呪い

  • 30

    ディープラーニングによって抽出された特徴量は、分類などのタスクに有用である。

    特徴抽出

  • 31

    ウェブサイトの情報リソースに意味を付与することで、コンピューターによってより高度な意味処理を行うための技術のこと。

    セマンティックウェブ

  • 32

    コンピューター処理に適したデータを公開共有するための技術。アルファベット3文字

    LOD

  • 33

    ILSVRC2012年優勝、画像認識の精度が素晴らしかった

    ALexNet

  • 34

    ILSVRC2014高評価、学習時に児童少ない総数で学習した後、新たな層を追加することで、総数を16層まで増やし精度を向上している。

    VGG

  • 35

    ILSVRC2014優勝、モジュールと呼ばれる独自の構造が導入されている。

    GoodLeNet

  • 36

    ILSVRC2015優勝、結合が導入されている。

    ResNet

  • 37

    半導体の性能と集積は18ヶ月ごとに2倍になるという経験則

    ムーアの法則

  • 38

    図のようなデータの分布があったときに、そのデータに最も当てはまる直線を考えるという、手法のこと

    線形回帰

  • 39

    線形回帰のに正則化項を加えた手法として、 ()回帰とリッジ回帰がある。

    ラッソ

  • 40

    線形回帰で、一つの入力(身長)から体重を予測するような、回帰分析のこと。

    単回帰分析

  • 41

    図のような、分類問題に使う手法のこと。

    ロジスティック回帰

  • 42

    ロジスティック会議では、()と言う関数をモデルの出力に用いる。

    シグモイド関数

  • 43

    分類問題において、2種類以上の分類を行う際に用いる関数を()と言う。

    ソフトマックス関数

  • 44

    決定木を用いる手法。

    ランダムフォレスト

  • 45

    ランダムフォレストにおいて、データをそれぞれの決定木に対してランダムに、1部のデータを取り出して、学習に用いること

    ブーストラップサンプリング

  • 46

    ランダムフォレストにおいて、複数のモデルで学習させることを何と言うか

    アンサンブル学習

  • 47

    ()もバギングと同様、複数のモデルを学習させるアプローチをする

    ブースティング

  • 48

    ディープラーニングが考えられる以前は機械学習において、最も人気のあった手法の1つで、高度な数学的理論に支えられたもの

    サポートベクターマシン

  • 49

    SVMでは、データをあえて高次元に写像することで、その写像後の空間で線形分類ができるようにすると言うアプローチがとられた。この写像に用いられる関数のことを何と言うか。

    カーネル関数

  • 50

    時系列データを対象とする回帰モデルの事

    自己回帰モデル

  • 51

    教師なし学習の手法であり、データをクラスタに分ける際に用いられるアルゴリズム

    k-means法

  • 52

    階層的クラスタリング手法のうち、クラスタ間の分散の増加が最小になるようにクラスタを統合していく方法

    ウォード法

  • 53

    階層的クラスタリングにおいて、クラスタ間の最も近い2点間の距離をもとにクラスタ間の距離を定義する手法

    最短距離法

  • 54

    高次元のデータを低次元に圧縮しつつ、元のデータの分散をできるだけ保つことを目的とする次元削減の手法。

    主成分分析

  • 55

    推薦システムにおいて、ユーザーとアイテムの行動履歴に基づき、類似するユーザーやアイテムを使って推薦を行う手法

    協調フィルタリング

  • 56

    推薦システムにおいて、ユーザーやアイテムに関する十分な履歴データが存在しないために、適切な推薦が困難になる問題

    コールドスタート問題

  • 57

    推薦システムにおいて、アイテムの属性情報とユーザーの過去の好みに基づいて推薦を行う手法はどれか。

    コンテンツベースフィルタリング

  • 58

    大量のテキストデータに潜む潜在的なテーマを、単語の出現パターンから自動的に抽出する手法はどれか。

    トピックモデル

  • 59

    強化学習において、限られた試行の中で報酬の期待値が最大となる行動を選ぶことを目的とする手法。

    バンディットアルゴリズム

  • 60

    状態と行動の組み合わせに対して、確率的に次の状態と報酬が決定される強化学習の数理モデル。

    マルコフ決定過程モデル

  • 61

    強化学習において、ある状態(または状態・行動の組み合わせ)から将来得られる報酬の期待値を表すもの

    価値関数

  • 62

    強化学習において、方策そのものを直接最適化するために、勾配情報を利用して学習を行う手法はどれか。

    方策勾配法

  • 63

    機械学習モデルのパラメータを学習させるために使用するデータ

    訓練データ

  • 64

    モデルが未知のデータに対してどれほど汎化できるかを評価するために用いるデータ

    テストデータ

  • 65

    データを複数の分割に分けて、それぞれを訓練とテストに交互に使用することで、モデルの性能を安定的に評価する方法

    交差検証

  • 66

    データをあらかじめ訓練用と評価用に分割し、評価用データを学習に使用しない手法

    ホールドアウト検証

  • 67

    データセットをk個に分割し、そのうち1つを評価用、残りを訓練用として交互にk回学習と評価を行う手法はどれか。

    k-分割交差検証

  • 68

    モデルが予測した値と、実際の正解ラベルとのずれを表す指標はどれか。

    予測誤差

  • 69

    分類モデルの予測結果を、正解ラベルと照合して集計した表はどれか。

    混同行列

  • 70

    訓練データに対しては高い精度を示すが、テストデータに対しては性能が低下する現象

    過学習

  • 71

    2値分類モデルの性能を、さまざまな分類閾値における真陽性率と偽陽性率の関係として可視化した評価指標はどれか。

    ROC曲線

  • 72

    モデルの当てはまりの良さと、モデルの複雑さを同時に評価することで、過学習を防ぎながら最適なモデルを選ぶために使われる指標はどれか。

    情報量基準

  • 73

    バギングに関する説明として、最も適切なものを1つ選べ

    複数のモデルをそれぞれ別に学習させ、各モデルの出力を平均もしくは多数決することで決める手法のこと

  • 74

    回帰問題や分類問題に関する説明として、最も適切なものを1つ選べ

    多クラス分類には、ソフトマックス関数が用いられる

  • 75

    自己回帰モデル(AR)による分析対象例として、最も適切なものを1つ選べ

    株価予測

  • 76

    階層的クラスタリングにおいて、クラスタが形成されていく様子を木構造で表現した図の名称を、選べ

    デンドログラム

  • 77

    ()はECサイト等でユーザの購買履歴をもとに好みを分析し、興味がありそうな商品をおすすめする手法

    協調フィルタリング

  • 78

    ()はユーザではなく、商品側に何かしらの特徴量を付与し、特徴が似ている商品を推奨する手法

    コンテンツベースフィルタリング

  • 79

    k-分割交差検証は、どのような時に用いると効果的か

    データセットに含まれるデータの件数が少ない時

  • 80

    教師なし学習において、データを類似性に基づいて複数のグループに分類する手法はどれか。

    クラスタリング

  • 81

    次のうち、強化学習における行動価値関数を更新しながら最適な行動方針を学習する手法として最も適切なものはどれか。

    Q学習

  • 82

    教師あり学習は、()と教師データの関係を多くのデータから学習し、その学習結果をもとに、教師データが未知のデータに対して予測を行う技術のこと

    特徴量

  • 83

    教師データが店舗における売り上げの場合の特徴量を選べ

    曜日ごとの平均売上

  • 84

    教師あり学習に関する説明として、最も適切なものを次の中から1つ選べ。

    C. 教師あり学習では、予測時には特徴量のみを入力として使用する。

  • 85

    与えられた入力に対して、連続的な数値を予測するタスク

    回帰タスク

  • 86

    多クラス分類において、ニューラルネットワークを利用する場合、出力層の活性化関数として、()関数を使用する

    ソフトマックス

  • 87

    分類タスクにおいて、2クラス分類の場合、主に()関数が使われる

    シグモイド

  • 88

    分類タスクに用いられる代表的な手法として、ロジスティック回帰、決定木、()、()、()がある。

    ランダムフォレスト, k近傍法, ニューラルネットワーク

  • 89

    k近傍法に関する説明として、最も適切なものはどれか。

    k近傍法では、距離に基づいて近いk個のデータから予測を行う。

  • 90

    ニューラルネットワークに関する説明として、正しいものはどれか。

    活性化関数は、ネットワークを非線形にする役割がある。

  • 91

    正則化の目的として正しいものはどれか。

    学習データへの過学習を抑制すること。

  • 92

    ラッソ回帰に関する説明として正しいものはどれか。

    Lasso回帰は特徴量の選択に有効である。

  • 93

    リッジ回帰の特徴として最も適切なものはどれか。

    係数を小さく保ち、過学習を抑える。

  • 94

    交差エントロピー損失関数は主にどのタスクで使用されるか。

    分類問題

  • 95

    平均二乗誤差(MSE)の特徴として正しいものはどれか。

    正解と予測値の差の二乗平均を取る。

  • 96

    ロジスティック回帰の特徴として正しいものはどれか。

    出力を確率として解釈できる。

  • 97

    アンサンブル学習の利点として最も適切なものはどれか。

    複数のモデルを組み合わせて予測精度を高める

  • 98

    ブースティングに関する説明として正しいものはどれか。

    誤分類されたデータに重点を置きながら学習を進める。

  • 99

    バギングに関する説明として正しいものはどれか。

    ブーストラップサンプリングを利用する。

  • 100

    ブーストラップサンプリングの特徴として正しいものはどれか。

    同じデータ点が複数回選ばれる可能性がある。