ログイン

vol.03

vol.03
20問 • 2年前
  • William Wan
  • 通報

    問題一覧

  • 1

    ①は、脳の神経回路のニューロンを模倣したモデルに由来したモデル/アルゴリズム。 ①は、②①と呼ばれる場合もあります。

    ニューラルネットワーク, 人工

  • 2

    θは①(②)と呼ばれ関数で、丸括弧内がゼロ以上の時に1、負の場合に0となる関数です。 例 θ(x) = {1 (x>=0) {0 (x<0)

    ステップ関数, step function

  • 3

    ステップ関数についての問題: θ(x) = {① (x>=0) {② (x=0) {③ (x<0)

    1, 1/2, 0

  • 4

    ニューラルネットワークの種類 ①②-ループのエッジを持たず、入力層、隠れ層、出力層の順でシグナルが伝搬するニューラルネットワーク。 ③②-動物の視覚野の配置から着想をえた①②の一種。 ④②-ある層の出力が遡って入力される再帰結合をもつニューラルネットワーク。

    フィードフォワード, ニューラルネットワーク, 畳み込み, リカレント

  • 5

    福島邦彦が発表。①とは、視覚神経系の性質をヒントにした視覚パターン認識機構のモデル。

    ネオコグニトロン

  • 6

    ニューラルネットワークの「〇」は①(②)や③(④)などと呼ばれます。 ①は、1つのデータから構成される場合と、⑤と呼ばれる変換を含む2つの①から構成される場合があります。

    ノード, node, ユニット, unit, アクティベーション関数

  • 7

    ノードとノードを結ぶ矢印はノード間に関連があることを表します。 この関連を①(②)や③(④)などと呼びます。 逆に、①で結ばれていないノード同士は無関係であることを意味します。

    エッジ, edge, リンク, link

  • 8

    基本的なニューラルネットは、「①⓪(⑤ ⑥)」、「②⓪(⑦ ⑥)/③⓪(⑧ ⑥)」、「④⓪(⑨ ⑥)」から構成されます。

    層, 入力, 隠れ, 中間, 出力, input, layer, hidden, intermediate, output

  • 9

    ①はニューラルネットワークに入力するデータを当てはめるノードを持つ層で、他の隠れ層や出力層とは異なり、データをただ当てはめるのみです。 つまり、①に属するノードは値をそのまま当てはめるだけでアクティベーション関数を含みません。

    入力層

  • 10

    ①ははニューラルネットワークから出力するデータを当てはめるノードを持つ層です。 ①のアクティベーション関数は、問題設定によって適切に設定する必要があります。

    出力層

  • 11

    ①は、入力層と出力層に挟まれた層を指します。

    隠れ層

  • 12

    ①(②)は、ノードの出力信号を調整する働きがあります。

    アクティベーション関数, activation function

  • 13

    ①⓪(④ ③)/②⓪(⑤ ③)は入力値をそのまま返す関数です。 ①⓪の微分は⑥になります。 d/dx f(x) = ⑥

    関数, 恒等, 線形, function, identical, lincar, 1

  • 14

    ①(②)は階段状の形状をした関数です。 ①をアクティベーション関数として利用したのはニューラルネットワークの元祖である③です。 ①はx=0で微分可能ではなく、x≠0で微分がゼロとなります。 θ(x) = {④ (x>=0)    {⑤ (x<0)

    ステップ関数, step function, パーセプトロン, 1, 0

  • 15

    ①(②)は、変数が正の時は1、負の時はー1、ゼロの時は0となる関数です。 この関数は「③」または「④」と記述します。 ①はx=0で微分可能ではなく、x≠0で微分がゼロとなります。 x=0の取り扱いは別にして、①とステップ関数は次の関係にあります。 1/2[③(x)+1] = θ(x)

    符号関数, sign function, sgn, sign

  • 16

    ①(②)は、ステップ関数を滑らかにした関数です。 f(x) = 1/(1+e^(-x))

    シグモイド関数, sigmoid function

  • 17

    ①は、正の時に直線、負の時にゼロになる関数です。 f(x) = ②(0, x) ここで、②(a, b)はaとbの大きい値を選択する記号です。

    ReLU関数, max

  • 18

    ①(②)は、符号関数を滑らかにした関数です。 f(x) = tanh x = (e^(x)-e^(-x))/(e^(x)+e^(-x))

    tanh関数, hyperbolic function

  • 19

    ①-点と線で構成図を書いたときの線の部分のこと

    エッジ

  • 20

    アルゴリズムとは

    計算方法

  • テスト問題

    テスト問題

    William Wan · 23問 · 2年前

    テスト問題

    テスト問題

    23問 • 2年前
    William Wan

    算数問題

    算数問題

    William Wan · 10問 · 2年前

    算数問題

    算数問題

    10問 • 2年前
    William Wan

    English

    English

    William Wan · 32問 · 2年前

    English

    English

    32問 • 2年前
    William Wan

    漢字

    漢字

    William Wan · 23問 · 2年前

    漢字

    漢字

    23問 • 2年前
    William Wan

    クイズ

    クイズ

    William Wan · 9問 · 2年前

    クイズ

    クイズ

    9問 • 2年前
    William Wan

    第1章

    第1章

    William Wan · 9問 · 2年前

    第1章

    第1章

    9問 • 2年前
    William Wan

    第2章

    第2章

    William Wan · 5問 · 2年前

    第2章

    第2章

    5問 • 2年前
    William Wan

    vol.1

    vol.1

    William Wan · 18問 · 2年前

    vol.1

    vol.1

    18問 • 2年前
    William Wan

    vol.01

    vol.01

    William Wan · 18問 · 2年前

    vol.01

    vol.01

    18問 • 2年前
    William Wan

    vol.01

    vol.01

    William Wan · 35問 · 2年前

    vol.01

    vol.01

    35問 • 2年前
    William Wan

    Vocarb

    Vocarb

    William Wan · 8問 · 2年前

    Vocarb

    Vocarb

    8問 • 2年前
    William Wan

    vol.01

    vol.01

    William Wan · 37問 · 2年前

    vol.01

    vol.01

    37問 • 2年前
    William Wan

    Interface

    Interface

    William Wan · 14問 · 2年前

    Interface

    Interface

    14問 • 2年前
    William Wan

    vol.02

    vol.02

    William Wan · 15問 · 2年前

    vol.02

    vol.02

    15問 • 2年前
    William Wan

    vol.01 記述編

    vol.01 記述編

    William Wan · 23問 · 2年前

    vol.01 記述編

    vol.01 記述編

    23問 • 2年前
    William Wan

    vol.02

    vol.02

    William Wan · 12問 · 2年前

    vol.02

    vol.02

    12問 • 2年前
    William Wan

    vol.02 用語

    vol.02 用語

    William Wan · 16問 · 2年前

    vol.02 用語

    vol.02 用語

    16問 • 2年前
    William Wan

    10章

    10章

    William Wan · 5問 · 2年前

    10章

    10章

    5問 • 2年前
    William Wan

    vol.03

    vol.03

    William Wan · 48問 · 2年前

    vol.03

    vol.03

    48問 • 2年前
    William Wan

    vol.02

    vol.02

    William Wan · 50問 · 2年前

    vol.02

    vol.02

    50問 • 2年前
    William Wan

    vol.03

    vol.03

    William Wan · 31問 · 2年前

    vol.03

    vol.03

    31問 • 2年前
    William Wan

    演算問題

    演算問題

    William Wan · 61問 · 2年前

    演算問題

    演算問題

    61問 • 2年前
    William Wan

    用語問題

    用語問題

    William Wan · 46問 · 2年前

    用語問題

    用語問題

    46問 • 2年前
    William Wan

    vol.04

    vol.04

    William Wan · 24問 · 2年前

    vol.04

    vol.04

    24問 • 2年前
    William Wan

    vol.05

    vol.05

    William Wan · 21問 · 2年前

    vol.05

    vol.05

    21問 • 2年前
    William Wan

    vol.01

    vol.01

    William Wan · 26問 · 2年前

    vol.01

    vol.01

    26問 • 2年前
    William Wan

    vol.03

    vol.03

    William Wan · 27問 · 2年前

    vol.03

    vol.03

    27問 • 2年前
    William Wan

    ミニドリル

    ミニドリル

    William Wan · 9問 · 2年前

    ミニドリル

    ミニドリル

    9問 • 2年前
    William Wan

    vol.06

    vol.06

    William Wan · 9問 · 2年前

    vol.06

    vol.06

    9問 • 2年前
    William Wan

    vol.07

    vol.07

    William Wan · 7問 · 2年前

    vol.07

    vol.07

    7問 • 2年前
    William Wan

    期末テスト向け

    期末テスト向け

    William Wan · 12問 · 1年前

    期末テスト向け

    期末テスト向け

    12問 • 1年前
    William Wan

    先生からの練習問題

    先生からの練習問題

    William Wan · 8問 · 1年前

    先生からの練習問題

    先生からの練習問題

    8問 • 1年前
    William Wan

    問題一覧

  • 1

    ①は、脳の神経回路のニューロンを模倣したモデルに由来したモデル/アルゴリズム。 ①は、②①と呼ばれる場合もあります。

    ニューラルネットワーク, 人工

  • 2

    θは①(②)と呼ばれ関数で、丸括弧内がゼロ以上の時に1、負の場合に0となる関数です。 例 θ(x) = {1 (x>=0) {0 (x<0)

    ステップ関数, step function

  • 3

    ステップ関数についての問題: θ(x) = {① (x>=0) {② (x=0) {③ (x<0)

    1, 1/2, 0

  • 4

    ニューラルネットワークの種類 ①②-ループのエッジを持たず、入力層、隠れ層、出力層の順でシグナルが伝搬するニューラルネットワーク。 ③②-動物の視覚野の配置から着想をえた①②の一種。 ④②-ある層の出力が遡って入力される再帰結合をもつニューラルネットワーク。

    フィードフォワード, ニューラルネットワーク, 畳み込み, リカレント

  • 5

    福島邦彦が発表。①とは、視覚神経系の性質をヒントにした視覚パターン認識機構のモデル。

    ネオコグニトロン

  • 6

    ニューラルネットワークの「〇」は①(②)や③(④)などと呼ばれます。 ①は、1つのデータから構成される場合と、⑤と呼ばれる変換を含む2つの①から構成される場合があります。

    ノード, node, ユニット, unit, アクティベーション関数

  • 7

    ノードとノードを結ぶ矢印はノード間に関連があることを表します。 この関連を①(②)や③(④)などと呼びます。 逆に、①で結ばれていないノード同士は無関係であることを意味します。

    エッジ, edge, リンク, link

  • 8

    基本的なニューラルネットは、「①⓪(⑤ ⑥)」、「②⓪(⑦ ⑥)/③⓪(⑧ ⑥)」、「④⓪(⑨ ⑥)」から構成されます。

    層, 入力, 隠れ, 中間, 出力, input, layer, hidden, intermediate, output

  • 9

    ①はニューラルネットワークに入力するデータを当てはめるノードを持つ層で、他の隠れ層や出力層とは異なり、データをただ当てはめるのみです。 つまり、①に属するノードは値をそのまま当てはめるだけでアクティベーション関数を含みません。

    入力層

  • 10

    ①ははニューラルネットワークから出力するデータを当てはめるノードを持つ層です。 ①のアクティベーション関数は、問題設定によって適切に設定する必要があります。

    出力層

  • 11

    ①は、入力層と出力層に挟まれた層を指します。

    隠れ層

  • 12

    ①(②)は、ノードの出力信号を調整する働きがあります。

    アクティベーション関数, activation function

  • 13

    ①⓪(④ ③)/②⓪(⑤ ③)は入力値をそのまま返す関数です。 ①⓪の微分は⑥になります。 d/dx f(x) = ⑥

    関数, 恒等, 線形, function, identical, lincar, 1

  • 14

    ①(②)は階段状の形状をした関数です。 ①をアクティベーション関数として利用したのはニューラルネットワークの元祖である③です。 ①はx=0で微分可能ではなく、x≠0で微分がゼロとなります。 θ(x) = {④ (x>=0)    {⑤ (x<0)

    ステップ関数, step function, パーセプトロン, 1, 0

  • 15

    ①(②)は、変数が正の時は1、負の時はー1、ゼロの時は0となる関数です。 この関数は「③」または「④」と記述します。 ①はx=0で微分可能ではなく、x≠0で微分がゼロとなります。 x=0の取り扱いは別にして、①とステップ関数は次の関係にあります。 1/2[③(x)+1] = θ(x)

    符号関数, sign function, sgn, sign

  • 16

    ①(②)は、ステップ関数を滑らかにした関数です。 f(x) = 1/(1+e^(-x))

    シグモイド関数, sigmoid function

  • 17

    ①は、正の時に直線、負の時にゼロになる関数です。 f(x) = ②(0, x) ここで、②(a, b)はaとbの大きい値を選択する記号です。

    ReLU関数, max

  • 18

    ①(②)は、符号関数を滑らかにした関数です。 f(x) = tanh x = (e^(x)-e^(-x))/(e^(x)+e^(-x))

    tanh関数, hyperbolic function

  • 19

    ①-点と線で構成図を書いたときの線の部分のこと

    エッジ

  • 20

    アルゴリズムとは

    計算方法