ログイン

ディープラーニングの概要
42問 • 7ヶ月前
  • ユーザ名非公開
  • 通報

    問題一覧

  • 1

    (ア)に最もよく当てはまる選択肢を選んでください。 活性化関数には、0以下の時は0、0以上のときは入力値をそのまま出力する(ア)などがある。また、(ア)を改良した(イ)や(ウ)なども存在する。(イ)は、入力値が0以下の場合は入力値をα倍した値を出力し、入力値が0を超える場合は入力値と同じ値を出力する関数である。また、αは範囲内の値がランダムに選ばれる。(ウ)は、入力値が0以下の場合は入力値をα倍した値を出力し、入力値が0を超える場合は入力値と同じ値を出力する関数である。αはパラメータであり、学習によって決まる。

    3.ReLU関数

  • 2

    (イ)に最もよく当てはまる選択肢を選んでください。 活性化関数には、0以下の時は0、0以上のときは入力値をそのまま出力する(ア)などがある。また、(ア)を改良した(イ)や(ウ)なども存在する。(イ)は、入力値が0以下の場合は入力値をα倍した値を出力し、入力値が0を超える場合は入力値と同じ値を出力する関数である。また、αは範囲内の値がランダムに選ばれる。(ウ)は、入力値が0以下の場合は入力値をα倍した値を出力し、入力値が0を超える場合は入力値と同じ値を出力する関数である。αはパラメータであり、学習によって決まる。

    2.Randomized ReLU関数

  • 3

    (ウ)に最もよく当てはまる選択肢を選んでください。 活性化関数には、0以下の時は0、0以上のときは入力値をそのまま出力する(ア)などがある。また、(ア)を改良した(イ)や(ウ)なども存在する。(イ)は、入力値が0以下の場合は入力値をα倍した値を出力し、入力値が0を超える場合は入力値と同じ値を出力する関数である。また、αは範囲内の値がランダムに選ばれる。(ウ)は、入力値が0以下の場合は入力値をα倍した値を出力し、入力値が0を超える場合は入力値と同じ値を出力する関数である。αはパラメータであり、学習によって決まる。

    1.Parametric ReLU関数

  • 4

    (ア)に最もよく当てはまる選択肢を選んでください。 (ア)とは鞍点問題に対応するために考えられた手法で、慣性の考え方を取り入れ、前回の更新量を、現在の更新量に反映させ、学習の停滞を防ぐ。

    3.モーメンタム法

  • 5

    オンライン学習に関する説明として、最も不適切な選択肢を選択してください。

    1.異常なデータが少し混じっていてもモデルへの影響は少ない

  • 6

    局所最適解を避ける最適化アルゴリズムでない手法の選択肢を選択してください。

    3.DCGAN

  • 7

    (ア)に最もよく当てはまる選択肢を選んでください。 ニューラルネットワークを多層化しても、学習効率が上がらないという問題があった。この問題に対して、(ア)を取り入れることで学習精度が向上した。

    2.誤差逆伝播法

  • 8

    勾配降下法において、(ア)を防ぐ方法として、学習率の値を大きくするという方法がある。

    2.局所最適解

  • 9

    (ア)に最もよく当てはまる選択肢を選んでください。 勾配が大きくなってしまい、学習が進まなくなってしまう問題を(ア)という。

    1.勾配爆発問題

  • 10

    (ア)に最もよく当てはまる選択肢を選んでください。 モーメンタム法を改良した手法に(ア)がある。(ア)では、次のステップの勾配を用いる。

    3.NAG

  • 11

    (ア)に最もよく当てはまる選択肢を選んでください。 重みなどのパラメータ更新タイミングから、最急降下法は(ア)、確率的勾配降下法は(イ)に相当する。

    3.バッチ学習

  • 12

    (イ)に最もよく当てはまる選択肢を選んでください。 重みなどのパラメータ更新タイミングから、最急降下法は(ア)、確率的勾配降下法は(イ)に相当する。

    1.ミニバッチ学習

  • 13

    (ア)に最もよく当てはまる選択肢を選んでください。 重要度の低い説明変数(重み)を取り除くことを目的とした手法で、重要度の低いパラメータを0にし、重要度の高いパラメータを残す処理を(ア)、パラメータ(重み)が大きくなりすぎないように、パラメータ(重み)の大きさに応じて0に近づけ、モデルを滑らかにすることを目的とした手法を(イ)、0では無いパラメータの数で正則化する方法を(ウ)という。

    L1正則化

  • 14

    (イ)に最もよく当てはまる選択肢を選んでください。 重要度の低い説明変数(重み)を取り除くことを目的とした手法で、重要度の低いパラメータを0にし、重要度の高いパラメータを残す処理を(ア)、パラメータ(重み)が大きくなりすぎないように、パラメータ(重み)の大きさに応じて0に近づけ、モデルを滑らかにすることを目的とした手法を(イ)、0では無いパラメータの数で正則化する方法を(ウ)という。

    4.L2正則化

  • 15

    (ウ)に最もよく当てはまる選択肢を選んでください。 重要度の低い説明変数(重み)を取り除くことを目的とした手法で、重要度の低いパラメータを0にし、重要度の高いパラメータを残す処理を(ア)、パラメータ(重み)が大きくなりすぎないように、パラメータ(重み)の大きさに応じて0に近づけ、モデルを滑らかにすることを目的とした手法を(イ)、0では無いパラメータの数で正則化する方法を(ウ)という。

    2.L0正則化

  • 16

    (ア)に最もよく当てはまる選択肢を選んでください。 シグモイド関数は、入力値を(ア)の数値に変換して出力する関数であり、ロジスティック回帰などで使用されている関数の1つである。データを利用しやすくするために、ルールに基づき、データを変形させることを(イ)という。

    3. 0以上1以下

  • 17

    (イ)に最もよく当てはまる選択肢を選んでください。 シグモイド関数は、入力値を(ア)の数値に変換して出力する関数であり、ロジスティック回帰などで使用されている関数の1つである。データを利用しやすくするために、ルールに基づき、データを変形させることを(イ)という。

    2.正規化

  • 18

    (ア)に最もよく当てはまる選択肢を選んでください。 単純パーセプトロンは(ア)と(イ)からなるニューラルネットワークである。(ア)は入力を受け取る層で、(イ)は値を出力する層である。また、一般にニューラルネットワークでは、モデルの自由度を上げるために(ウ)が使用されている。

    1.入力層

  • 19

    (イ)に最もよく当てはまる選択肢を選んでください。 単純パーセプトロンは(ア)と(イ)からなるニューラルネットワークである。(ア)は入力を受け取る層で、(イ)は値を出力する層である。また、一般にニューラルネットワークでは、モデルの自由度を上げるために(ウ)が使用されている。

    4.出力層

  • 20

    (ウ)に最もよく当てはまる選択肢を選んでください。 単純パーセプトロンは(ア)と(イ)からなるニューラルネットワークである。(ア)は入力を受け取る層で、(イ)は値を出力する層である。また、一般にニューラルネットワークでは、モデルの自由度を上げるために(ウ)が使用されている。

    2. バイアス

  • 21

    (ア)に最もよく当てはまる選択肢を選んでください。 ニューラルネットワークでは、誤差を計算する上で活性化関数の(ア)を使用しているが、その値が入力層に近づくにしたがい小さくなってしまい入力層付近の重みが調整されなくなる。これを勾配消失問題という。

    2. 微分

  • 22

    (ア)に最もよく当てはまる選択肢を選んでください。 ニューラルネットワークにおいて、出力された結果と実際の結果の誤差を最小化するために出力層から入力層にかけて調整を行っていく方法を(ア)という。また、ニューラルネットワークの層が増えることで、入力層付近のパラメータの調整が上手くいかなくなるという問題を(イ)という。

    3. 誤差逆伝播法

  • 23

    (イ)に最もよく当てはまる選択肢を選んでください。 ニューラルネットワークにおいて、出力された結果と実際の結果の誤差を最小化するために出力層から入力層にかけて調整を行っていく方法を(ア)という。また、ニューラルネットワークの層が増えることで、入力層付近のパラメータの調整が上手くいかなくなるという問題を(イ)という。

    1. 勾配消失問題

  • 24

    ミニバッチ学習に関する説明として、最も不適切な選択肢を選択してください。

    4. メモリの使用量はオンライン学習よりも少ない

  • 25

    (ア)に最もよく当てはまる選択肢を選んでください。 勾配降下法において、局所最適解を防ぐ方法として、(ア)の値を大きくするという方法がある。しかし、(ア)の値が大きすぎると、(イ)を飛び越えることもあるので注意する必要がある。また、(ウ)の影響で学習が進みにくくなることもある。(ウ)とは、勾配が0になってしまう点のことである。

    1. 学習率

  • 26

    イ)に最もよく当てはまる選択肢を選んでください。 勾配降下法において、局所最適解を防ぐ方法として、(ア)の値を大きくするという方法がある。しかし、(ア)の値が大きすぎると、(イ)を飛び越えることもあるので注意する必要がある。また、(ウ)の影響で学習が進みにくくなることもある。(ウ)とは、勾配が0になってしまう点のことである。

    3. 大域最適解

  • 27

    (ウ)に最もよく当てはまる選択肢を選んでください。 勾配降下法において、局所最適解を防ぐ方法として、(ア)の値を大きくするという方法がある。しかし、(ア)の値が大きすぎると、(イ)を飛び越えることもあるので注意する必要がある。また、(ウ)の影響で学習が進みにくくなることもある。(ウ)とは、勾配が0になってしまう点のことである。

    4. 停留点

  • 28

    ディープニューラルネットワークに関する説明の文章として、最も適切な選択肢を選択してください。

    1. ディープラーニングによって複雑な問題を解決できるようになったが、過学習になりやすい特徴がある

  • 29

    (ア)に最もよく当てはまる選択肢を選んでください。 誤差逆伝播法では、予測値と実際の値の誤差を(ア)によって求め、その値が最小になるように重みなどのパラメータを最適化していく。(ア)として(イ)や(ウ)などがよく使われる。(イ)は主に分類問題で使用され、(ウ)は主に回帰問題で使用される。

    4. 誤差関数

  • 30

    (イ)に最もよく当てはまる選択肢を選んでください。 誤差逆伝播法では、予測値と実際の値の誤差を(ア)によって求め、その値が最小になるように重みなどのパラメータを最適化していく。(ア)として(イ)や(ウ)などがよく使われる。(イ)は主に分類問題で使用され、(ウ)は主に回帰問題で使用される。

    3. 交差エントロピー誤差関数

  • 31

    (ウ)に最もよく当てはまる選択肢を選んでください。 誤差逆伝播法では、予測値と実際の値の誤差を(ア)によって求め、その値が最小になるように重みなどのパラメータを最適化していく。(ア)として(イ)や(ウ)などがよく使われる。(イ)は主に分類問題で使用され、(ウ)は主に回帰問題で使用される。

    2. 平均二乗誤差関数

  • 32

    (ア)に最もよく当てはまる選択肢を選んでください。 ジェフリー・ヒントンは(ア)を「Beautiful FREE LUNCH」と表現している。

    2. 早期終了

  • 33

    ノーフリーランチ定理の説明として、最も適切な選択肢を選択してください。

    3. あらゆる問題を効率的に解ける汎用的なアルゴリズムはないということ

  • 34

    (ア)に最もよく当てはまる選択肢を選んでください。 ニューラルネットワークにおいて、入力値の重要度を数値化したものを(ア)という。

    2. 重み

  • 35

    (ア)に最もよく当てはまる選択肢を選んでください。 単純パーセプトロンは(ア)は可能だが、(イ)はできない。一方、多層パーセプトロンは(イ)も可能である。

    3. 線形分類

  • 36

    (イ)に最もよく当てはまる選択肢を選んでください。 単純パーセプトロンは(ア)は可能だが、(イ)はできない。一方、多層パーセプトロンは(イ)も可能である。

    3. 線形分類

  • 37

    (ア)に最もよく当てはまる選択肢を選んでください。 人工知能の進化と半導体の進化には密接な関係性がある。半導体には、パソコンの頭脳と言われており、汎用的な演算処理装置である(ア)、画像処理が得意な演算処理装置である(イ)などがある。(イ)は並列的な処理に向いているため、ディープラーニングと相性が良い。また、画像処理が得意な(イ)を、画像処理以外の処理でも活用できるように改良した演算処理装置(ウ)が台頭してきた。

    3. CPU

  • 38

    (イ)に最もよく当てはまる選択肢を選んでください。 人工知能の進化と半導体の進化には密接な関係性がある。半導体には、パソコンの頭脳と言われており、汎用的な演算処理装置である(ア)、画像処理が得意な演算処理装置である(イ)などがある。(イ)は並列的な処理に向いているため、ディープラーニングと相性が良い。また、画像処理が得意な(イ)を、画像処理以外の処理でも活用できるように改良した演算処理装置(ウ)が台頭してきた。

    1. GPU

  • 39

    (ウ)に最もよく当てはまる選択肢を選んでください。 人工知能の進化と半導体の進化には密接な関係性がある。半導体には、パソコンの頭脳と言われており、汎用的な演算処理装置である(ア)、画像処理が得意な演算処理装置である(イ)などがある。(イ)は並列的な処理に向いているため、ディープラーニングと相性が良い。また、画像処理が得意な(イ)を、画像処理以外の処理でも活用できるように改良した演算処理装置(ウ)が台頭してきた。

    2. GPGPU

  • 40

    (ア)に最もよく当てはまる選択肢を選んでください。 ニューラルネットワークの隠れ層にはシグモイド関数が使われていたが、勾配消失問題が生じやすかった。そこで、シグモイド関数の代わりに(ア)を使うことが提案された。(ア)に変えたことで、勾配消失問題が以前よりも発生しにくくなった。また、(ア)から(イ)が使われるようになることで、さらに勾配消失問題が発生しにくくなった。

    2. tanh関数

  • 41

    (イ)に最もよく当てはまる選択肢を選んでください。 ニューラルネットワークの隠れ層にはシグモイド関数が使われていたが、勾配消失問題が生じやすかった。そこで、シグモイド関数の代わりに(ア)を使うことが提案された。(ア)に変えたことで、勾配消失問題が以前よりも発生しにくくなった。また、(ア)から(イ)が使われるようになることで、さらに勾配消失問題が発生しにくくなった。

    2. ReLU関数

  • 42

    (ア)に最もよく当てはまる選択肢を選んでください。 入力値が0より小さい場合、入力値をα倍した値を出力、0以上の場合には入力値と同じ値を出力する関数を(ア)という。

    4. Leaky ReLU関数

  • MRI試験対策(小田嶋)

    MRI試験対策(小田嶋)

    ユーザ名非公開 · 288問 · 7日前

    MRI試験対策(小田嶋)

    MRI試験対策(小田嶋)

    288問 • 7日前
    ユーザ名非公開

    核医学検査装置 SPECT装置

    核医学検査装置 SPECT装置

    N · 28問 · 9日前

    核医学検査装置 SPECT装置

    核医学検査装置 SPECT装置

    28問 • 9日前
    N

    診療画像機器工学(X線)

    診療画像機器工学(X線)

    ユーザ名非公開 · 69問 · 9日前

    診療画像機器工学(X線)

    診療画像機器工学(X線)

    69問 • 9日前
    ユーザ名非公開

    核医学機器工学(国試10年分)

    核医学機器工学(国試10年分)

    N · 49問 · 9日前

    核医学機器工学(国試10年分)

    核医学機器工学(国試10年分)

    49問 • 9日前
    N

    全商情報処理検定1級

    全商情報処理検定1級

    ユーザ名非公開 · 258問 · 9日前

    全商情報処理検定1級

    全商情報処理検定1級

    258問 • 9日前
    ユーザ名非公開

    核医学機器工学 9回〜15回

    核医学機器工学 9回〜15回

    ユーザ名非公開 · 39問 · 11日前

    核医学機器工学 9回〜15回

    核医学機器工学 9回〜15回

    39問 • 11日前
    ユーザ名非公開

    【テキスト抜出】消防設備士甲種4類(鑑別)

    【テキスト抜出】消防設備士甲種4類(鑑別)

    wkb · 33問 · 11日前

    【テキスト抜出】消防設備士甲種4類(鑑別)

    【テキスト抜出】消防設備士甲種4類(鑑別)

    33問 • 11日前
    wkb

    臨床検査学(安谷屋、2024年度前期、統合版)

    臨床検査学(安谷屋、2024年度前期、統合版)

    🎶🎶( ᴖ ·̫ ᴖ)ᐢ · 160問 · 11日前

    臨床検査学(安谷屋、2024年度前期、統合版)

    臨床検査学(安谷屋、2024年度前期、統合版)

    160問 • 11日前
    🎶🎶( ᴖ ·̫ ᴖ)ᐢ

    7.16 7.5 7.19 7.21

    7.16 7.5 7.19 7.21

    ユーザ名非公開 · 32問 · 11日前

    7.16 7.5 7.19 7.21

    7.16 7.5 7.19 7.21

    32問 • 11日前
    ユーザ名非公開

    7.16 7.5 7.19 7.21

    7.16 7.5 7.19 7.21

    ユーザ名非公開 · 32問 · 11日前

    7.16 7.5 7.19 7.21

    7.16 7.5 7.19 7.21

    32問 • 11日前
    ユーザ名非公開

    ブラックエプロン抽出器具編①

    ブラックエプロン抽出器具編①

    ユーザ名非公開 · 100問 · 12日前

    ブラックエプロン抽出器具編①

    ブラックエプロン抽出器具編①

    100問 • 12日前
    ユーザ名非公開

    核医学検査技術学

    核医学検査技術学

    mimi · 100問 · 13日前

    核医学検査技術学

    核医学検査技術学

    100問 • 13日前
    mimi

    TAD

    TAD

    Bymbasuren · 121問 · 15日前

    TAD

    TAD

    121問 • 15日前
    Bymbasuren

    ブラックエプロン抽出器具編①

    ブラックエプロン抽出器具編①

    ユーザ名非公開 · 100問 · 16日前

    ブラックエプロン抽出器具編①

    ブラックエプロン抽出器具編①

    100問 • 16日前
    ユーザ名非公開

    ブラックエプロン抽出器具編①

    ブラックエプロン抽出器具編①

    秋元さつき · 100問 · 16日前

    ブラックエプロン抽出器具編①

    ブラックエプロン抽出器具編①

    100問 • 16日前
    秋元さつき

    一級機械保全技能士

    一級機械保全技能士

    ちよのまる · 135問 · 17日前

    一級機械保全技能士

    一級機械保全技能士

    135問 • 17日前
    ちよのまる

    機会保全技能士1級 2024 学科

    機会保全技能士1級 2024 学科

    ちよのまる · 50問 · 17日前

    機会保全技能士1級 2024 学科

    機会保全技能士1級 2024 学科

    50問 • 17日前
    ちよのまる

    一級機械保全技能士

    一級機械保全技能士

    ユーザ名非公開 · 112回閲覧 · 135問 · 17日前

    一級機械保全技能士

    一級機械保全技能士

    112回閲覧 • 135問 • 17日前
    ユーザ名非公開

    画像工学(国試56〜76回)解説あり

    画像工学(国試56〜76回)解説あり

    ユーザ名非公開 · 105問 · 18日前

    画像工学(国試56〜76回)解説あり

    画像工学(国試56〜76回)解説あり

    105問 • 18日前
    ユーザ名非公開

    ブラックエプロン抽出器具編①

    ブラックエプロン抽出器具編①

    AN · 100問 · 18日前

    ブラックエプロン抽出器具編①

    ブラックエプロン抽出器具編①

    100問 • 18日前
    AN

    問題一覧

  • 1

    (ア)に最もよく当てはまる選択肢を選んでください。 活性化関数には、0以下の時は0、0以上のときは入力値をそのまま出力する(ア)などがある。また、(ア)を改良した(イ)や(ウ)なども存在する。(イ)は、入力値が0以下の場合は入力値をα倍した値を出力し、入力値が0を超える場合は入力値と同じ値を出力する関数である。また、αは範囲内の値がランダムに選ばれる。(ウ)は、入力値が0以下の場合は入力値をα倍した値を出力し、入力値が0を超える場合は入力値と同じ値を出力する関数である。αはパラメータであり、学習によって決まる。

    3.ReLU関数

  • 2

    (イ)に最もよく当てはまる選択肢を選んでください。 活性化関数には、0以下の時は0、0以上のときは入力値をそのまま出力する(ア)などがある。また、(ア)を改良した(イ)や(ウ)なども存在する。(イ)は、入力値が0以下の場合は入力値をα倍した値を出力し、入力値が0を超える場合は入力値と同じ値を出力する関数である。また、αは範囲内の値がランダムに選ばれる。(ウ)は、入力値が0以下の場合は入力値をα倍した値を出力し、入力値が0を超える場合は入力値と同じ値を出力する関数である。αはパラメータであり、学習によって決まる。

    2.Randomized ReLU関数

  • 3

    (ウ)に最もよく当てはまる選択肢を選んでください。 活性化関数には、0以下の時は0、0以上のときは入力値をそのまま出力する(ア)などがある。また、(ア)を改良した(イ)や(ウ)なども存在する。(イ)は、入力値が0以下の場合は入力値をα倍した値を出力し、入力値が0を超える場合は入力値と同じ値を出力する関数である。また、αは範囲内の値がランダムに選ばれる。(ウ)は、入力値が0以下の場合は入力値をα倍した値を出力し、入力値が0を超える場合は入力値と同じ値を出力する関数である。αはパラメータであり、学習によって決まる。

    1.Parametric ReLU関数

  • 4

    (ア)に最もよく当てはまる選択肢を選んでください。 (ア)とは鞍点問題に対応するために考えられた手法で、慣性の考え方を取り入れ、前回の更新量を、現在の更新量に反映させ、学習の停滞を防ぐ。

    3.モーメンタム法

  • 5

    オンライン学習に関する説明として、最も不適切な選択肢を選択してください。

    1.異常なデータが少し混じっていてもモデルへの影響は少ない

  • 6

    局所最適解を避ける最適化アルゴリズムでない手法の選択肢を選択してください。

    3.DCGAN

  • 7

    (ア)に最もよく当てはまる選択肢を選んでください。 ニューラルネットワークを多層化しても、学習効率が上がらないという問題があった。この問題に対して、(ア)を取り入れることで学習精度が向上した。

    2.誤差逆伝播法

  • 8

    勾配降下法において、(ア)を防ぐ方法として、学習率の値を大きくするという方法がある。

    2.局所最適解

  • 9

    (ア)に最もよく当てはまる選択肢を選んでください。 勾配が大きくなってしまい、学習が進まなくなってしまう問題を(ア)という。

    1.勾配爆発問題

  • 10

    (ア)に最もよく当てはまる選択肢を選んでください。 モーメンタム法を改良した手法に(ア)がある。(ア)では、次のステップの勾配を用いる。

    3.NAG

  • 11

    (ア)に最もよく当てはまる選択肢を選んでください。 重みなどのパラメータ更新タイミングから、最急降下法は(ア)、確率的勾配降下法は(イ)に相当する。

    3.バッチ学習

  • 12

    (イ)に最もよく当てはまる選択肢を選んでください。 重みなどのパラメータ更新タイミングから、最急降下法は(ア)、確率的勾配降下法は(イ)に相当する。

    1.ミニバッチ学習

  • 13

    (ア)に最もよく当てはまる選択肢を選んでください。 重要度の低い説明変数(重み)を取り除くことを目的とした手法で、重要度の低いパラメータを0にし、重要度の高いパラメータを残す処理を(ア)、パラメータ(重み)が大きくなりすぎないように、パラメータ(重み)の大きさに応じて0に近づけ、モデルを滑らかにすることを目的とした手法を(イ)、0では無いパラメータの数で正則化する方法を(ウ)という。

    L1正則化

  • 14

    (イ)に最もよく当てはまる選択肢を選んでください。 重要度の低い説明変数(重み)を取り除くことを目的とした手法で、重要度の低いパラメータを0にし、重要度の高いパラメータを残す処理を(ア)、パラメータ(重み)が大きくなりすぎないように、パラメータ(重み)の大きさに応じて0に近づけ、モデルを滑らかにすることを目的とした手法を(イ)、0では無いパラメータの数で正則化する方法を(ウ)という。

    4.L2正則化

  • 15

    (ウ)に最もよく当てはまる選択肢を選んでください。 重要度の低い説明変数(重み)を取り除くことを目的とした手法で、重要度の低いパラメータを0にし、重要度の高いパラメータを残す処理を(ア)、パラメータ(重み)が大きくなりすぎないように、パラメータ(重み)の大きさに応じて0に近づけ、モデルを滑らかにすることを目的とした手法を(イ)、0では無いパラメータの数で正則化する方法を(ウ)という。

    2.L0正則化

  • 16

    (ア)に最もよく当てはまる選択肢を選んでください。 シグモイド関数は、入力値を(ア)の数値に変換して出力する関数であり、ロジスティック回帰などで使用されている関数の1つである。データを利用しやすくするために、ルールに基づき、データを変形させることを(イ)という。

    3. 0以上1以下

  • 17

    (イ)に最もよく当てはまる選択肢を選んでください。 シグモイド関数は、入力値を(ア)の数値に変換して出力する関数であり、ロジスティック回帰などで使用されている関数の1つである。データを利用しやすくするために、ルールに基づき、データを変形させることを(イ)という。

    2.正規化

  • 18

    (ア)に最もよく当てはまる選択肢を選んでください。 単純パーセプトロンは(ア)と(イ)からなるニューラルネットワークである。(ア)は入力を受け取る層で、(イ)は値を出力する層である。また、一般にニューラルネットワークでは、モデルの自由度を上げるために(ウ)が使用されている。

    1.入力層

  • 19

    (イ)に最もよく当てはまる選択肢を選んでください。 単純パーセプトロンは(ア)と(イ)からなるニューラルネットワークである。(ア)は入力を受け取る層で、(イ)は値を出力する層である。また、一般にニューラルネットワークでは、モデルの自由度を上げるために(ウ)が使用されている。

    4.出力層

  • 20

    (ウ)に最もよく当てはまる選択肢を選んでください。 単純パーセプトロンは(ア)と(イ)からなるニューラルネットワークである。(ア)は入力を受け取る層で、(イ)は値を出力する層である。また、一般にニューラルネットワークでは、モデルの自由度を上げるために(ウ)が使用されている。

    2. バイアス

  • 21

    (ア)に最もよく当てはまる選択肢を選んでください。 ニューラルネットワークでは、誤差を計算する上で活性化関数の(ア)を使用しているが、その値が入力層に近づくにしたがい小さくなってしまい入力層付近の重みが調整されなくなる。これを勾配消失問題という。

    2. 微分

  • 22

    (ア)に最もよく当てはまる選択肢を選んでください。 ニューラルネットワークにおいて、出力された結果と実際の結果の誤差を最小化するために出力層から入力層にかけて調整を行っていく方法を(ア)という。また、ニューラルネットワークの層が増えることで、入力層付近のパラメータの調整が上手くいかなくなるという問題を(イ)という。

    3. 誤差逆伝播法

  • 23

    (イ)に最もよく当てはまる選択肢を選んでください。 ニューラルネットワークにおいて、出力された結果と実際の結果の誤差を最小化するために出力層から入力層にかけて調整を行っていく方法を(ア)という。また、ニューラルネットワークの層が増えることで、入力層付近のパラメータの調整が上手くいかなくなるという問題を(イ)という。

    1. 勾配消失問題

  • 24

    ミニバッチ学習に関する説明として、最も不適切な選択肢を選択してください。

    4. メモリの使用量はオンライン学習よりも少ない

  • 25

    (ア)に最もよく当てはまる選択肢を選んでください。 勾配降下法において、局所最適解を防ぐ方法として、(ア)の値を大きくするという方法がある。しかし、(ア)の値が大きすぎると、(イ)を飛び越えることもあるので注意する必要がある。また、(ウ)の影響で学習が進みにくくなることもある。(ウ)とは、勾配が0になってしまう点のことである。

    1. 学習率

  • 26

    イ)に最もよく当てはまる選択肢を選んでください。 勾配降下法において、局所最適解を防ぐ方法として、(ア)の値を大きくするという方法がある。しかし、(ア)の値が大きすぎると、(イ)を飛び越えることもあるので注意する必要がある。また、(ウ)の影響で学習が進みにくくなることもある。(ウ)とは、勾配が0になってしまう点のことである。

    3. 大域最適解

  • 27

    (ウ)に最もよく当てはまる選択肢を選んでください。 勾配降下法において、局所最適解を防ぐ方法として、(ア)の値を大きくするという方法がある。しかし、(ア)の値が大きすぎると、(イ)を飛び越えることもあるので注意する必要がある。また、(ウ)の影響で学習が進みにくくなることもある。(ウ)とは、勾配が0になってしまう点のことである。

    4. 停留点

  • 28

    ディープニューラルネットワークに関する説明の文章として、最も適切な選択肢を選択してください。

    1. ディープラーニングによって複雑な問題を解決できるようになったが、過学習になりやすい特徴がある

  • 29

    (ア)に最もよく当てはまる選択肢を選んでください。 誤差逆伝播法では、予測値と実際の値の誤差を(ア)によって求め、その値が最小になるように重みなどのパラメータを最適化していく。(ア)として(イ)や(ウ)などがよく使われる。(イ)は主に分類問題で使用され、(ウ)は主に回帰問題で使用される。

    4. 誤差関数

  • 30

    (イ)に最もよく当てはまる選択肢を選んでください。 誤差逆伝播法では、予測値と実際の値の誤差を(ア)によって求め、その値が最小になるように重みなどのパラメータを最適化していく。(ア)として(イ)や(ウ)などがよく使われる。(イ)は主に分類問題で使用され、(ウ)は主に回帰問題で使用される。

    3. 交差エントロピー誤差関数

  • 31

    (ウ)に最もよく当てはまる選択肢を選んでください。 誤差逆伝播法では、予測値と実際の値の誤差を(ア)によって求め、その値が最小になるように重みなどのパラメータを最適化していく。(ア)として(イ)や(ウ)などがよく使われる。(イ)は主に分類問題で使用され、(ウ)は主に回帰問題で使用される。

    2. 平均二乗誤差関数

  • 32

    (ア)に最もよく当てはまる選択肢を選んでください。 ジェフリー・ヒントンは(ア)を「Beautiful FREE LUNCH」と表現している。

    2. 早期終了

  • 33

    ノーフリーランチ定理の説明として、最も適切な選択肢を選択してください。

    3. あらゆる問題を効率的に解ける汎用的なアルゴリズムはないということ

  • 34

    (ア)に最もよく当てはまる選択肢を選んでください。 ニューラルネットワークにおいて、入力値の重要度を数値化したものを(ア)という。

    2. 重み

  • 35

    (ア)に最もよく当てはまる選択肢を選んでください。 単純パーセプトロンは(ア)は可能だが、(イ)はできない。一方、多層パーセプトロンは(イ)も可能である。

    3. 線形分類

  • 36

    (イ)に最もよく当てはまる選択肢を選んでください。 単純パーセプトロンは(ア)は可能だが、(イ)はできない。一方、多層パーセプトロンは(イ)も可能である。

    3. 線形分類

  • 37

    (ア)に最もよく当てはまる選択肢を選んでください。 人工知能の進化と半導体の進化には密接な関係性がある。半導体には、パソコンの頭脳と言われており、汎用的な演算処理装置である(ア)、画像処理が得意な演算処理装置である(イ)などがある。(イ)は並列的な処理に向いているため、ディープラーニングと相性が良い。また、画像処理が得意な(イ)を、画像処理以外の処理でも活用できるように改良した演算処理装置(ウ)が台頭してきた。

    3. CPU

  • 38

    (イ)に最もよく当てはまる選択肢を選んでください。 人工知能の進化と半導体の進化には密接な関係性がある。半導体には、パソコンの頭脳と言われており、汎用的な演算処理装置である(ア)、画像処理が得意な演算処理装置である(イ)などがある。(イ)は並列的な処理に向いているため、ディープラーニングと相性が良い。また、画像処理が得意な(イ)を、画像処理以外の処理でも活用できるように改良した演算処理装置(ウ)が台頭してきた。

    1. GPU

  • 39

    (ウ)に最もよく当てはまる選択肢を選んでください。 人工知能の進化と半導体の進化には密接な関係性がある。半導体には、パソコンの頭脳と言われており、汎用的な演算処理装置である(ア)、画像処理が得意な演算処理装置である(イ)などがある。(イ)は並列的な処理に向いているため、ディープラーニングと相性が良い。また、画像処理が得意な(イ)を、画像処理以外の処理でも活用できるように改良した演算処理装置(ウ)が台頭してきた。

    2. GPGPU

  • 40

    (ア)に最もよく当てはまる選択肢を選んでください。 ニューラルネットワークの隠れ層にはシグモイド関数が使われていたが、勾配消失問題が生じやすかった。そこで、シグモイド関数の代わりに(ア)を使うことが提案された。(ア)に変えたことで、勾配消失問題が以前よりも発生しにくくなった。また、(ア)から(イ)が使われるようになることで、さらに勾配消失問題が発生しにくくなった。

    2. tanh関数

  • 41

    (イ)に最もよく当てはまる選択肢を選んでください。 ニューラルネットワークの隠れ層にはシグモイド関数が使われていたが、勾配消失問題が生じやすかった。そこで、シグモイド関数の代わりに(ア)を使うことが提案された。(ア)に変えたことで、勾配消失問題が以前よりも発生しにくくなった。また、(ア)から(イ)が使われるようになることで、さらに勾配消失問題が発生しにくくなった。

    2. ReLU関数

  • 42

    (ア)に最もよく当てはまる選択肢を選んでください。 入力値が0より小さい場合、入力値をα倍した値を出力、0以上の場合には入力値と同じ値を出力する関数を(ア)という。

    4. Leaky ReLU関数