ログイン

G検定4章
59問 • 8ヶ月前
  • ユーザ名非公開
  • 通報

    問題一覧

  • 1

    勾配消失問題の対策として不適切なものを選べば

    ドロップアウトを行う

  • 2

    単純パーセプトロンに関する記述として正しいものはどれか。

    ANDやORは学習できるが、XORは学習できない

  • 3

    勾配消失問題について正しい説明はどれか。

    シグモイド関数やtanh関数で深いネットワークに使うと発生しやすい

  • 4

    誤差逆伝播法において、活性化関数が果たす役割として正しいものはどれか。

    ネットワークに非線形性を加える

  • 5

    CPUとGPUの主な違いはどれか。

    GPUは行列演算などの並列処理に優れており、深層学習に向いている

  • 6

    ノーフリーランチ定理が示す主張として最も適切なものはどれか。

    どのアルゴリズムもすべての問題に対して平均すれば等しくなる

  • 7

    畳み込みニューラルネットワーク(CNN)の特徴として誤っているものはどれか。

    活性化関数にsoftmaxを用いる

  • 8

    ステップ関数に関する説明として正しいものはどれか。

    出力が0または1の離散値になる

  • 9

    ReLU関数の特徴として最も適切なものはどれか。

    0未満の入力では勾配が0になる

  • 10

    活性化関数の役割として最も適切なものはどれか。

    ニューラルネットワークに非線形性を与える

  • 11

    シグモイド関数のデメリットとして最も適切なものはどれか。

    勾配が小さくなりやすく、勾配消失を引き起こしやすい

  • 12

    tanh関数の特徴として正しいものはどれか。

    出力が-1〜1の範囲になる

  • 13

    勾配降下法の説明として正しいものはどれか。

    誤差関数の最小値を求めるため、勾配が小さくなる方向にパラメータを更新する

  • 14

    誤差関数の目的として正しいものはどれか。

    モデルの出力と正解との誤差を定量的に表す

  • 15

    イテレーションとエポックの関係として正しいものはどれか。

    エポック数 × バッチ数 = 総イテレーション数

  • 16

    平均二乗誤差関数の特徴として正しいものはどれか。

    出力と正解の差の2乗を平均して誤差を測る

  • 17

    交差エントロピー誤差関数が主に用いられるのはどのようなタスクか。

    分類

  • 18

    ドロップアウトの効果として正しいものはどれか。

    過学習を防ぎ、汎化性能を高める

  • 19

    確率的勾配降下法(SGD)に関する正しい説明はどれか。

    1サンプルごとに重みを更新する

  • 20

    バッチ勾配降下法に関する説明として正しいものはどれか。

    訓練データ全体を1つのバッチとして扱い、一度に重みを更新する

  • 21

    ミニバッチ勾配降下法の利点として最も適切なものはどれか。

    バッチとSGDのバランスが良く、GPUの並列計算にも適している

  • 22

    ハイパーパラメータに関する説明として最も適切なものはどれか。

    B. 学習率やバッチサイズなど、あらかじめ人が設定するパラメータである

  • 23

    確率的勾配降下法(SGD)の特徴として正しいものはどれか。

    B. 訓練データの1サンプルごとに重み更新を行うため、更新にばらつきがある

  • 24

    早期終了(Early Stopping)に関する説明として最も適切なものはどれか。

    C. 検証データに対する誤差が増加し始めた時点で学習を終了することで過学習を防ぐ

  • 25

    二重降下現象(Double Descent)に関する説明として最も適切なものはどれか。

    C. モデルの容量がある点を超えると、いったん誤差が増え、その後再び減少する

  • 26

    ドロップアウト(Dropout)の説明として最も正しいものはどれか。

    C. 学習時に一部のノードを無効化することで、過学習を防ぐ手法

  • 27

    ディープランニングでは、学習によって最適な特徴量の抽出方法が獲得されるこのことを表す用語はなにか?

    特徴表現学習

  • 28

    アノテーション対象のデータの中から学習することで、性能向上が見込めるものを戦略的に従って選び、抜き、限られたコストで生存の高いモデルを開発することを狙う手法を何と言うか

    能動学習

  • 29

    エージェントが環境と相互作用しながら、試行錯誤を通じて最適な行動、学習する機械学習の分野のこと

    強化学習

  • 30

    ニューラルネットワークの基本的な構造に関する説明として、最も適切なものはどれか。

    C. ニューラルネットワークは、人間の神経回路を模した数理モデルである。

  • 31

    単純パーセプトロンに関する説明として、最も適切なものはどれか。

    B. 単純パーセプトロンは、線形分離可能な問題にのみ対応できる。

  • 32

    多層パーセプトロン(MLP)の構成要素に関する説明として、最も適切なものはどれか。

    B. MLPの隠れ層では、非線形な活性化関数を使用する。

  • 33

    GPUの特徴に関する説明として、最も適切なものはどれか。

    B. GPUは、大量のコアを持ち、並列処理に優れている。

  • 34

    CPUの特徴に関する説明として、最も適切なものはどれか。

    C. CPUは、汎用的な処理に適しており、複雑な制御や直列処理に強い。

  • 35

    GPGPU(General-Purpose computing on Graphics Processing Units)に関する説明として、最も適切なものはどれか。

    B. GPGPUは、GPUを汎用計算に利用する技術である。

  • 36

    TPU(Tensor Processing Unit)について最も適切な説明はどれか。

    C. TPUは、Googleが深層学習のために開発した専用プロセッサである。

  • 37

    次のうち、シグモイド関数に関する説明として正しいものはどれか。

    C. シグモイド関数は、ReLU関数に比べて勾配消失問題が起きやすい。

  • 38

    Leaky ReLUの特徴として最も適切なものはどれか。

    C. Leaky ReLUは、負の入力に対して小さい傾きで値を返す。

  • 39

    ニューラルネットワークを用いて線形分離不可能な問題を解くために、隠れ層に必要とされる性質として最も適切なものはどれか。

    C. 隠れ層の活性化関数は非線形である必要がある。

  • 40

    Leaky ReLUの特長として正しいものはどれか。

    負の入力値に対して小さい勾配を持つ

  • 41

    分類タスクの出力層でよく使用される活性化関数はどれか。

    シグモイド関数(単一出力)またはソフトマックス関数(多クラス出力)

  • 42

    損失関数の主な目的はどれか。

    予測と正解の差を定量的に評価する

  • 43

    回帰タスクと分類タスクにおける代表的な損失関数の組み合わせとして正しいものはどれか。

    回帰:平均二乗誤差、分類:交差エントロピー

  • 44

    カルバック・ライブラー(KL)情報量に関する説明として正しいものはどれか。

    2つの確率分布の「距離」(非対称)を測る尺度である

  • 45

    Contrastive Lossの説明として正しいものはどれか。

    同じクラスのデータは近く、異なるクラスは離すように学習する

  • 46

    Triplet Lossに関する説明として正しいものはどれか。

    アンカー、ポジティブ、ネガティブの3つのサンプルを使って学習する

  • 47

    正則化の主な目的はどれか。

    過学習を抑えて汎化性能を高める

  • 48

    L1正則化の効果として最も適切なものはどれか。

    重みのいくつかをゼロにして特徴選択を行う

  • 49

    ドロップアウトに関する説明として不適切なものはどれか。

    推論時(テスト時)にもランダムにノードを無効化する

  • 50

    バッチ学習とミニバッチ学習の違いとして正しいものはどれか。

    バッチ学習は全データを用いて1回の勾配計算を行うのに対し、ミニバッチ学習は一部のデータで複数回に分けて学習する

  • 51

    鞍点(サドルポイント)に関する説明として正しいものはどれか。

    勾配がゼロになるが、最小値でも最大値でもない点

  • 52

    モーメンタム(Momentum)法に関する説明として正しいものはどれか。

    過去の勾配を加味して学習を進めることで、振動を抑えながら収束を速める手法

  • 53

    AdaGradに関する説明として正しいものはどれか。

    パラメータごとの勾配の累積に応じて学習率を調整する手法である

  • 54

    勾配降下法に関する説明として正しいものはどれか。

    誤差関数の勾配を計算し、最小化する方向にパラメータを更新する

  • 55

    エポック(Epoch)に関する説明として最も適切なものはどれか。

    全データセットを1回使って学習するサイクル

  • 56

    早期終了(Early Stopping)に関する説明として正しいものはどれか。

    検証データの損失が悪化し始めた段階で学習を停止することで過学習を防ぐ手法

  • 57

    二重降下現象(Double Descent)に関する説明として最も適切なものはどれか。

    モデルの複雑さが増すと一度は汎化誤差が上がるが、その後再び下がる現象

  • 58

    ハイパーパラメータに関する説明として正しいものはどれか。

    人手で設定し、学習の進め方に影響するパラメータである

  • 59

    グリッドサーチ(Grid Search)に関する説明として正しいものはどれか。

    ハイパーパラメータの候補を網羅的に組み合わせて検証し、最適な値を探索する方法

  • G検定

    G検定

    ユーザ名非公開 · 100問 · 8ヶ月前

    G検定

    G検定

    100問 • 8ヶ月前
    ユーザ名非公開

    G検定2

    G検定2

    ユーザ名非公開 · 29問 · 8ヶ月前

    G検定2

    G検定2

    29問 • 8ヶ月前
    ユーザ名非公開

    G検定5章

    G検定5章

    ユーザ名非公開 · 42問 · 7ヶ月前

    G検定5章

    G検定5章

    42問 • 7ヶ月前
    ユーザ名非公開

    問題一覧

  • 1

    勾配消失問題の対策として不適切なものを選べば

    ドロップアウトを行う

  • 2

    単純パーセプトロンに関する記述として正しいものはどれか。

    ANDやORは学習できるが、XORは学習できない

  • 3

    勾配消失問題について正しい説明はどれか。

    シグモイド関数やtanh関数で深いネットワークに使うと発生しやすい

  • 4

    誤差逆伝播法において、活性化関数が果たす役割として正しいものはどれか。

    ネットワークに非線形性を加える

  • 5

    CPUとGPUの主な違いはどれか。

    GPUは行列演算などの並列処理に優れており、深層学習に向いている

  • 6

    ノーフリーランチ定理が示す主張として最も適切なものはどれか。

    どのアルゴリズムもすべての問題に対して平均すれば等しくなる

  • 7

    畳み込みニューラルネットワーク(CNN)の特徴として誤っているものはどれか。

    活性化関数にsoftmaxを用いる

  • 8

    ステップ関数に関する説明として正しいものはどれか。

    出力が0または1の離散値になる

  • 9

    ReLU関数の特徴として最も適切なものはどれか。

    0未満の入力では勾配が0になる

  • 10

    活性化関数の役割として最も適切なものはどれか。

    ニューラルネットワークに非線形性を与える

  • 11

    シグモイド関数のデメリットとして最も適切なものはどれか。

    勾配が小さくなりやすく、勾配消失を引き起こしやすい

  • 12

    tanh関数の特徴として正しいものはどれか。

    出力が-1〜1の範囲になる

  • 13

    勾配降下法の説明として正しいものはどれか。

    誤差関数の最小値を求めるため、勾配が小さくなる方向にパラメータを更新する

  • 14

    誤差関数の目的として正しいものはどれか。

    モデルの出力と正解との誤差を定量的に表す

  • 15

    イテレーションとエポックの関係として正しいものはどれか。

    エポック数 × バッチ数 = 総イテレーション数

  • 16

    平均二乗誤差関数の特徴として正しいものはどれか。

    出力と正解の差の2乗を平均して誤差を測る

  • 17

    交差エントロピー誤差関数が主に用いられるのはどのようなタスクか。

    分類

  • 18

    ドロップアウトの効果として正しいものはどれか。

    過学習を防ぎ、汎化性能を高める

  • 19

    確率的勾配降下法(SGD)に関する正しい説明はどれか。

    1サンプルごとに重みを更新する

  • 20

    バッチ勾配降下法に関する説明として正しいものはどれか。

    訓練データ全体を1つのバッチとして扱い、一度に重みを更新する

  • 21

    ミニバッチ勾配降下法の利点として最も適切なものはどれか。

    バッチとSGDのバランスが良く、GPUの並列計算にも適している

  • 22

    ハイパーパラメータに関する説明として最も適切なものはどれか。

    B. 学習率やバッチサイズなど、あらかじめ人が設定するパラメータである

  • 23

    確率的勾配降下法(SGD)の特徴として正しいものはどれか。

    B. 訓練データの1サンプルごとに重み更新を行うため、更新にばらつきがある

  • 24

    早期終了(Early Stopping)に関する説明として最も適切なものはどれか。

    C. 検証データに対する誤差が増加し始めた時点で学習を終了することで過学習を防ぐ

  • 25

    二重降下現象(Double Descent)に関する説明として最も適切なものはどれか。

    C. モデルの容量がある点を超えると、いったん誤差が増え、その後再び減少する

  • 26

    ドロップアウト(Dropout)の説明として最も正しいものはどれか。

    C. 学習時に一部のノードを無効化することで、過学習を防ぐ手法

  • 27

    ディープランニングでは、学習によって最適な特徴量の抽出方法が獲得されるこのことを表す用語はなにか?

    特徴表現学習

  • 28

    アノテーション対象のデータの中から学習することで、性能向上が見込めるものを戦略的に従って選び、抜き、限られたコストで生存の高いモデルを開発することを狙う手法を何と言うか

    能動学習

  • 29

    エージェントが環境と相互作用しながら、試行錯誤を通じて最適な行動、学習する機械学習の分野のこと

    強化学習

  • 30

    ニューラルネットワークの基本的な構造に関する説明として、最も適切なものはどれか。

    C. ニューラルネットワークは、人間の神経回路を模した数理モデルである。

  • 31

    単純パーセプトロンに関する説明として、最も適切なものはどれか。

    B. 単純パーセプトロンは、線形分離可能な問題にのみ対応できる。

  • 32

    多層パーセプトロン(MLP)の構成要素に関する説明として、最も適切なものはどれか。

    B. MLPの隠れ層では、非線形な活性化関数を使用する。

  • 33

    GPUの特徴に関する説明として、最も適切なものはどれか。

    B. GPUは、大量のコアを持ち、並列処理に優れている。

  • 34

    CPUの特徴に関する説明として、最も適切なものはどれか。

    C. CPUは、汎用的な処理に適しており、複雑な制御や直列処理に強い。

  • 35

    GPGPU(General-Purpose computing on Graphics Processing Units)に関する説明として、最も適切なものはどれか。

    B. GPGPUは、GPUを汎用計算に利用する技術である。

  • 36

    TPU(Tensor Processing Unit)について最も適切な説明はどれか。

    C. TPUは、Googleが深層学習のために開発した専用プロセッサである。

  • 37

    次のうち、シグモイド関数に関する説明として正しいものはどれか。

    C. シグモイド関数は、ReLU関数に比べて勾配消失問題が起きやすい。

  • 38

    Leaky ReLUの特徴として最も適切なものはどれか。

    C. Leaky ReLUは、負の入力に対して小さい傾きで値を返す。

  • 39

    ニューラルネットワークを用いて線形分離不可能な問題を解くために、隠れ層に必要とされる性質として最も適切なものはどれか。

    C. 隠れ層の活性化関数は非線形である必要がある。

  • 40

    Leaky ReLUの特長として正しいものはどれか。

    負の入力値に対して小さい勾配を持つ

  • 41

    分類タスクの出力層でよく使用される活性化関数はどれか。

    シグモイド関数(単一出力)またはソフトマックス関数(多クラス出力)

  • 42

    損失関数の主な目的はどれか。

    予測と正解の差を定量的に評価する

  • 43

    回帰タスクと分類タスクにおける代表的な損失関数の組み合わせとして正しいものはどれか。

    回帰:平均二乗誤差、分類:交差エントロピー

  • 44

    カルバック・ライブラー(KL)情報量に関する説明として正しいものはどれか。

    2つの確率分布の「距離」(非対称)を測る尺度である

  • 45

    Contrastive Lossの説明として正しいものはどれか。

    同じクラスのデータは近く、異なるクラスは離すように学習する

  • 46

    Triplet Lossに関する説明として正しいものはどれか。

    アンカー、ポジティブ、ネガティブの3つのサンプルを使って学習する

  • 47

    正則化の主な目的はどれか。

    過学習を抑えて汎化性能を高める

  • 48

    L1正則化の効果として最も適切なものはどれか。

    重みのいくつかをゼロにして特徴選択を行う

  • 49

    ドロップアウトに関する説明として不適切なものはどれか。

    推論時(テスト時)にもランダムにノードを無効化する

  • 50

    バッチ学習とミニバッチ学習の違いとして正しいものはどれか。

    バッチ学習は全データを用いて1回の勾配計算を行うのに対し、ミニバッチ学習は一部のデータで複数回に分けて学習する

  • 51

    鞍点(サドルポイント)に関する説明として正しいものはどれか。

    勾配がゼロになるが、最小値でも最大値でもない点

  • 52

    モーメンタム(Momentum)法に関する説明として正しいものはどれか。

    過去の勾配を加味して学習を進めることで、振動を抑えながら収束を速める手法

  • 53

    AdaGradに関する説明として正しいものはどれか。

    パラメータごとの勾配の累積に応じて学習率を調整する手法である

  • 54

    勾配降下法に関する説明として正しいものはどれか。

    誤差関数の勾配を計算し、最小化する方向にパラメータを更新する

  • 55

    エポック(Epoch)に関する説明として最も適切なものはどれか。

    全データセットを1回使って学習するサイクル

  • 56

    早期終了(Early Stopping)に関する説明として正しいものはどれか。

    検証データの損失が悪化し始めた段階で学習を停止することで過学習を防ぐ手法

  • 57

    二重降下現象(Double Descent)に関する説明として最も適切なものはどれか。

    モデルの複雑さが増すと一度は汎化誤差が上がるが、その後再び下がる現象

  • 58

    ハイパーパラメータに関する説明として正しいものはどれか。

    人手で設定し、学習の進め方に影響するパラメータである

  • 59

    グリッドサーチ(Grid Search)に関する説明として正しいものはどれか。

    ハイパーパラメータの候補を網羅的に組み合わせて検証し、最適な値を探索する方法