ログイン

ディープラーニングの要素技術
61問 • 7ヶ月前
  • ユーザ名非公開
  • 通報

    問題一覧

  • 1

    (ア)に最もよく当てはまる選択肢を選んでください。 LeNetは、ニューヨーク大学の(ア)によって発表されたモデルである。また、LeNetは(イ)を学習に用いたものである。

    3.ヤン・ルカン

  • 2

    (イ)に最もよく当てはまる選択肢を選んでください。 LeNetは、ニューヨーク大学の(ア)によって発表されたモデルである。また、LeNetは(イ)を学習に用いたものである。

    2.誤差逆伝播法

  • 3

    RNNにおけるAttentionの説明として最も適切な選択肢を選択してください。

    1.データの中からどのデータが予想で重要なのかを重み付けする方法

  • 4

    (ア)に最もよく当てはまる選択肢を選んでください。 CNNの畳み込み層において、フィルタをスライドさせる量のことを(ア)という。また、作成する特徴マップの大きさを調整するために画像データの周りに値を入れることを(イ)という。

    3.ストライド

  • 5

    (イ)に最もよく当てはまる選択肢を選んでください。 CNNの畳み込み層において、フィルタをスライドさせる量のことを(ア)という。また、作成する特徴マップの大きさを調整するために画像データの周りに値を入れることを(イ)という。

    4.パディング

  • 6

    入力した画像に対して、画像の説明文を生成するモデルを(ア)という。

    4.Image Captioning

  • 7

    (ア)に最もよく当てはまる選択肢を選んでください。 ネオコグニトロンは、人間の視覚野に関する神経細胞をもとに作られ、(ア)によって発表されたモデルである。また、ネオコグニトロンは学習方法としてadd-if silentを使用し、CNNは(イ)を使用する。

    4.福島邦彦

  • 8

    (イ)に最もよく当てはまる選択肢を選んでください。 ネオコグニトロンは、人間の視覚野に関する神経細胞をもとに作られ、(ア)によって発表されたモデルである。また、ネオコグニトロンは学習方法としてadd-if silentを使用し、CNNは(イ)を使用する。

    3.誤差逆伝播法

  • 9

    (ア)に最もよく当てはまる選択肢を選んでください。 時系列データを別の時系列データに変換するモデルのことを(ア)という。また、(ア)を実現するモデルの1つで、2つのRNNを組み合わせたモデルを(イ)という。

    3.Seq2Seq

  • 10

    (イ)に最もよく当てはまる選択肢を選んでください。 時系列データを別の時系列データに変換するモデルのことを(ア)という。また、(ア)を実現するモデルの1つで、2つのRNNを組み合わせたモデルを(イ)という。

    3.RNN エンコーダ-デコーダ

  • 11

    (ア)に最もよく当てはまる選択肢を選んでください。 (ア)は、画像認識の分野に特化したニューラルネットワークである。(ア)は、(イ)、パターン認識など幅広い分野で使用されている。(イ)は、手書きや印刷された文字を読み取りデジタル化する技術である。

    3.CNN

  • 12

    (イ)に最もよく当てはまる選択肢を選んでください。 (ア)は、画像認識の分野に特化したニューラルネットワークである。(ア)は、(イ)、パターン認識など幅広い分野で使用されている。(イ)は、手書きや印刷された文字を読み取りデジタル化する技術である。

    1.OCR

  • 13

    (ア)に最もよく当てはまる選択肢を選んでください。 オートエンコーダは(ア)と(イ)から構成されるネットワークである。入力されたデータは(ア)から(イ)、(イ)から(ア)へ伝わっていく。オートエンコーダを何層も重ね合わせたものを(ウ)という。(ウ)は、一気に学習させるのではなく、入力層から順番に学習させていく。このような学習方法を(エ)という。

    3.可視層

  • 14

    (イ)に最もよく当てはまる選択肢を選んでください。 オートエンコーダは(ア)と(イ)から構成されるネットワークである。入力されたデータは(ア)から(イ)、(イ)から(ア)へ伝わっていく。オートエンコーダを何層も重ね合わせたものを(ウ)という。(ウ)は、一気に学習させるのではなく、入力層から順番に学習させていく。このような学習方法を(エ)という。

    2.隠れ層

  • 15

    (ウ)に最もよく当てはまる選択肢を選んでください。 オートエンコーダは(ア)と(イ)から構成されるネットワークである。入力されたデータは(ア)から(イ)、(イ)から(ア)へ伝わっていく。オートエンコーダを何層も重ね合わせたものを(ウ)という。(ウ)は、一気に学習させるのではなく、入力層から順番に学習させていく。このような学習方法を(エ)という。

    3.積層オートエンコーダ

  • 16

    (エ)に最もよく当てはまる選択肢を選んでください。 オートエンコーダは(ア)と(イ)から構成されるネットワークである。入力されたデータは(ア)から(イ)、(イ)から(ア)へ伝わっていく。オートエンコーダを何層も重ね合わせたものを(ウ)という。(ウ)は、一気に学習させるのではなく、入力層から順番に学習させていく。このような学習方法を(エ)という。

    3.事前学習

  • 17

    (ア)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    4.隠れ層

  • 18

    (イ)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    1.LSTM

  • 19

    (ウ)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    2.GRU

  • 20

    (エ)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    4.リセットゲートと更新ゲート

  • 21

    位置エンコーディングの説明として最も適切な選択肢を選択してください。

    2.単語の位置関係の情報が失われるのを回避するため、単語に位置関係の情報を与える処理のこと

  • 22

    (ア)に最もよく当てはまる選択肢を選んでください。 CNNにおいて、畳み込み層で抽出された特徴マップをもとに目的に応じた値を出力するための層のことを(ア)という。

    3.全結合層

  • 23

    (ア)に最もよく当てはまる選択肢を選んでください。 CNNは(ア)が共有されておりパラメータの数が少なくて済むという特徴がある。

    1.重み

  • 24

    (ア)に最もよく当てはまる選択肢を選んでください。 CNNにおいてカーネル(フィルタ)を使って画像の特徴を抽出する層のことを(ア)という。また、カーネルのサイズのことを(イ)という。

    3.畳み込み層

  • 25

    (イ)に最もよく当てはまる選択肢を選んでください。 CNNにおいてカーネル(フィルタ)を使って画像の特徴を抽出する層のことを(ア)という。また、カーネルのサイズのことを(イ)という。

    4.カーネル幅

  • 26

    深層信念ネットワークに関する説明として、最も適切な選択肢を選択してください。

    2.同じ層のユニットは結合しておらず、可視層と隠れ層のユニットが結合している

  • 27

    (ア)に最もよく当てはまる選択肢を選んでください。 オートエンコーダの代わりに制限付きボルツマンマシンを積み重ねたものを(ア)という。また、(ア)は(イ)によって提唱された手法である。

    3.深層信念ネットワーク

  • 28

    (イ)に最もよく当てはまる選択肢を選んでください。 オートエンコーダの代わりに制限付きボルツマンマシンを積み重ねたものを(ア)という。また、(ア)は(イ)によって提唱された手法である。

    1.ジェフリー・ヒントン

  • 29

    RNNにおけるAttentionの説明として最も適切な選択肢を選択してください。

    1.データの中からどのデータが予測で重要なのかを重み付けする方法

  • 30

    ニューラルネットワークにおいて「関係のある出力は重みが大きく、関係のない出力は重みを小さくすること」が原則だが、「現在にとって関係のない出力でも、未来にとって関係のある出力の場合重みを大きくする」ことがある。このとき、重みに対する矛盾が発生してしまう。このような問題を、(ア)と言います。

    2.出力重み衝突

  • 31

    1998年に、ニューヨーク大学のヤン・ルカンによって誤差逆伝播法を学習に用いた(ア)と呼ばれるCNNのモデルが発表される。

    2.LeNet

  • 32

    (ア)に最もよく当てはまる選択肢を選んでください。 学習の仕方を学習する方法を(ア)という。以前に行った学習から、最適なパラメータの初期値などの知見を獲得することで、その知見を使って効率的に学習を行うことができる。また、(ア)の代表的な手法に(イ)がある。

    2.メタ学習

  • 33

    (イ)に最もよく当てはまる選択肢を選んでください。 学習の仕方を学習する方法を(ア)という。以前に行った学習から、最適なパラメータの初期値などの知見を獲得することで、その知見を使って効率的に学習を行うことができる。また、(ア)の代表的な手法に(イ)がある。

    1.MAML

  • 34

    畳み込みニューラルネットワークの畳み込み処理に関する問題である。入力画像のサイズが8×18、フィルタのサイズ4×4、ストライドが2、パディングが1のとき、特徴マップのサイズとして最も適切な選択肢を選択してください。

    1. 4 × 9

  • 35

    (ア)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    4. 隠れ層

  • 36

    (イ)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    1.LSTM

  • 37

    (ウ)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    2. GRU

  • 38

    (エ)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    4. リセットゲートと更新ゲート

  • 39

    (ア)に最もよく当てはまる選択肢を選んでください。 LeNetは、入力層・(ア)・(イ)・全結合層・出力層を組み合わせたニューラルネットワークである。また、LeNetとネオコグニトロンの構造は似ており、(ア)はS細胞層に、(イ)はC細胞層に対応している。

    3. 畳み込み層

  • 40

    (イ)に最もよく当てはまる選択肢を選んでください。 LeNetは、入力層・(ア)・(イ)・全結合層・出力層を組み合わせたニューラルネットワークである。また、LeNetとネオコグニトロンの構造は似ており、(ア)はS細胞層に、(イ)はC細胞層に対応している。

    2. プーリング層

  • 41

    (ア)に最もよく当てはまる選択肢を選んでください。 最近のCNNでは、全結合層の代わりに、(ア)が用いられている。

    1. GAP層

  • 42

    (ア)に最もよく当てはまる選択肢を選んでください。 特徴量の範囲を比較がしやすいように処理することを(ア)という。(ア)には、正規化や標準化がある。

    4.スケーリング

  • 43

    (ア)に最もよく当てはまる選択肢を選んでください。 GPTやBERTは、大規模データを使用して(ア)したモデルを、用途に合わせて(イ)をすることで、様々なタスクを解くことができます。

    2.事前学習

  • 44

    (ア)に最もよく当てはまる選択肢を選んでください。 各特徴量の平均を0、分散が1になるように変換することを(ア)という。

    2.標準化

  • 45

    (イ)に最もよく当てはまる選択肢を選んでください。 GPTやBERTは、大規模データを使用して(ア)したモデルを、用途に合わせて(イ)をすることで、様々なタスクを解くことができます。

    再帰構造

  • 46

    (イ)に最もよく当てはまる選択肢を選んでください。 GPTやBERTは、大規模データを使用して(ア)したモデルを、用途に合わせて(イ)をすることで、様々なタスクを解くことができます。

    4.転移学習

  • 47

    (ア)に最もよく当てはまる選択肢を選んでください。 画像や音声など様々なデータから一定の規則・ルールを見つけ識別することを(ア)という。

    2.パターン認識

  • 48

    (ア)に最もよく当てはまる選択肢を選んでください。 RNNは、(ア)をもったニューラルネットワークである。また、RNNにおいて、時間軸に沿って誤差を反映させていくことを(イ)という。

    1.再帰構造

  • 49

    (ア)に最もよく当てはまる選択肢を選んでください。 福島によって、単純型細胞、複雑型細胞のはたらきをもとに(ア)と呼ばれるモデルが作られる。(ア)は初期のCNNモデルである。

    2.ネオコグニトロン

  • 50

    (ア)に最もよく当てはまる選択肢を選んでください。 過去のデータだけではなく、未来のデータからも学習できるようにしたモデルのことを(ア)という。自然言語処理の場合、過去の単語だけではなく、未来の単語も使用することで意味の推測精度を高めることができる。

    1.双方向RNN

  • 51

    (イ)に最もよく当てはまる選択肢を選んでください。 RNNは、(ア)をもったニューラルネットワークである。また、RNNにおいて、時間軸に沿って誤差を反映させていくことを(イ)という。

    3.BPTT

  • 52

    (ア)に最もよく当てはまる選択肢を選んでください。 CNNの(ア)は視覚野の局所受容野に対応する。

    1.畳み込み層

  • 53

    (ア)に最もよく当てはまる選択肢を選んでください。 CNNにおいて、畳み込み層で抽出された特徴マップをもとに目的に応じた値を出力するための層のことを(ア)という。

    3.全結合層

  • 54

    (ア)に最もよく当てはまる選択肢を選んでください。 畳み込み層で出力した特徴マップをルールに従って小さくする層を(ア)という。

    4.プーリング層

  • 55

    CNNに関する説明として、最も不適切な選択肢を選択してください。

    3.プーリング層には特有の重みが存在し複雑な計算を行う必要がある

  • 56

    (ア)に最もよく当てはまる選択肢を選んでください。 積層オートエンコーダは、オートエンコーダを積み重ねたものである。しかし、オートエンコーダをいくら積み重ねたとしても、出力値と入力値が同じになるように学習しているため、(ア)の状態である。そこで、出力層に予測を行う層を追加することで、予測などを行うことができるようになる。これにより、(イ)が可能になる。

    1.教師なし学習

  • 57

    (イ)に最もよく当てはまる選択肢を選んでください。 積層オートエンコーダは、オートエンコーダを積み重ねたものである。しかし、オートエンコーダをいくら積み重ねたとしても、出力値と入力値が同じになるように学習しているため、(ア)の状態である。そこで、出力層に予測を行う層を追加することで、予測などを行うことができるようになる。これにより、(イ)が可能になる。

    2.教師あり学習

  • 58

    (ア)に最もよく当てはまる選択肢を選んでください。 積層オートエンコーダにロジスティック層などを後から加えた場合、モデル全体の重みを調整する必要がある。このように、仕上げとして、モデル全体の重みを調整することを(ア)という。

    1.ファインチューニング

  • 59

    ア)に最もよく当てはまる選択肢を選んでください。 カーネル幅とストライドが同じ場合、アベレージプーリングとマックスプーリングの出力結果のサイズは(ア)。

    4.同じになる

  • 60

    (ア)に最もよく当てはまる選択肢を選んでください。 RNNにおいて訓練のとき、前の時刻の正解データを現時点の入力データとして使用する手法のことを(ア)という。

    3.教師強制

  • 61

    (ア)に最もよく当てはまる選択肢を選んでください。 RNN エンコーダ-デコーダでは、エンコーダで入力された時系列データを(ア)に変換し、デコーダで(ア)を時系列データに変換し出力する。

    2.固定長のベクトル

  • 問題一覧

  • 1

    (ア)に最もよく当てはまる選択肢を選んでください。 LeNetは、ニューヨーク大学の(ア)によって発表されたモデルである。また、LeNetは(イ)を学習に用いたものである。

    3.ヤン・ルカン

  • 2

    (イ)に最もよく当てはまる選択肢を選んでください。 LeNetは、ニューヨーク大学の(ア)によって発表されたモデルである。また、LeNetは(イ)を学習に用いたものである。

    2.誤差逆伝播法

  • 3

    RNNにおけるAttentionの説明として最も適切な選択肢を選択してください。

    1.データの中からどのデータが予想で重要なのかを重み付けする方法

  • 4

    (ア)に最もよく当てはまる選択肢を選んでください。 CNNの畳み込み層において、フィルタをスライドさせる量のことを(ア)という。また、作成する特徴マップの大きさを調整するために画像データの周りに値を入れることを(イ)という。

    3.ストライド

  • 5

    (イ)に最もよく当てはまる選択肢を選んでください。 CNNの畳み込み層において、フィルタをスライドさせる量のことを(ア)という。また、作成する特徴マップの大きさを調整するために画像データの周りに値を入れることを(イ)という。

    4.パディング

  • 6

    入力した画像に対して、画像の説明文を生成するモデルを(ア)という。

    4.Image Captioning

  • 7

    (ア)に最もよく当てはまる選択肢を選んでください。 ネオコグニトロンは、人間の視覚野に関する神経細胞をもとに作られ、(ア)によって発表されたモデルである。また、ネオコグニトロンは学習方法としてadd-if silentを使用し、CNNは(イ)を使用する。

    4.福島邦彦

  • 8

    (イ)に最もよく当てはまる選択肢を選んでください。 ネオコグニトロンは、人間の視覚野に関する神経細胞をもとに作られ、(ア)によって発表されたモデルである。また、ネオコグニトロンは学習方法としてadd-if silentを使用し、CNNは(イ)を使用する。

    3.誤差逆伝播法

  • 9

    (ア)に最もよく当てはまる選択肢を選んでください。 時系列データを別の時系列データに変換するモデルのことを(ア)という。また、(ア)を実現するモデルの1つで、2つのRNNを組み合わせたモデルを(イ)という。

    3.Seq2Seq

  • 10

    (イ)に最もよく当てはまる選択肢を選んでください。 時系列データを別の時系列データに変換するモデルのことを(ア)という。また、(ア)を実現するモデルの1つで、2つのRNNを組み合わせたモデルを(イ)という。

    3.RNN エンコーダ-デコーダ

  • 11

    (ア)に最もよく当てはまる選択肢を選んでください。 (ア)は、画像認識の分野に特化したニューラルネットワークである。(ア)は、(イ)、パターン認識など幅広い分野で使用されている。(イ)は、手書きや印刷された文字を読み取りデジタル化する技術である。

    3.CNN

  • 12

    (イ)に最もよく当てはまる選択肢を選んでください。 (ア)は、画像認識の分野に特化したニューラルネットワークである。(ア)は、(イ)、パターン認識など幅広い分野で使用されている。(イ)は、手書きや印刷された文字を読み取りデジタル化する技術である。

    1.OCR

  • 13

    (ア)に最もよく当てはまる選択肢を選んでください。 オートエンコーダは(ア)と(イ)から構成されるネットワークである。入力されたデータは(ア)から(イ)、(イ)から(ア)へ伝わっていく。オートエンコーダを何層も重ね合わせたものを(ウ)という。(ウ)は、一気に学習させるのではなく、入力層から順番に学習させていく。このような学習方法を(エ)という。

    3.可視層

  • 14

    (イ)に最もよく当てはまる選択肢を選んでください。 オートエンコーダは(ア)と(イ)から構成されるネットワークである。入力されたデータは(ア)から(イ)、(イ)から(ア)へ伝わっていく。オートエンコーダを何層も重ね合わせたものを(ウ)という。(ウ)は、一気に学習させるのではなく、入力層から順番に学習させていく。このような学習方法を(エ)という。

    2.隠れ層

  • 15

    (ウ)に最もよく当てはまる選択肢を選んでください。 オートエンコーダは(ア)と(イ)から構成されるネットワークである。入力されたデータは(ア)から(イ)、(イ)から(ア)へ伝わっていく。オートエンコーダを何層も重ね合わせたものを(ウ)という。(ウ)は、一気に学習させるのではなく、入力層から順番に学習させていく。このような学習方法を(エ)という。

    3.積層オートエンコーダ

  • 16

    (エ)に最もよく当てはまる選択肢を選んでください。 オートエンコーダは(ア)と(イ)から構成されるネットワークである。入力されたデータは(ア)から(イ)、(イ)から(ア)へ伝わっていく。オートエンコーダを何層も重ね合わせたものを(ウ)という。(ウ)は、一気に学習させるのではなく、入力層から順番に学習させていく。このような学習方法を(エ)という。

    3.事前学習

  • 17

    (ア)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    4.隠れ層

  • 18

    (イ)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    1.LSTM

  • 19

    (ウ)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    2.GRU

  • 20

    (エ)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    4.リセットゲートと更新ゲート

  • 21

    位置エンコーディングの説明として最も適切な選択肢を選択してください。

    2.単語の位置関係の情報が失われるのを回避するため、単語に位置関係の情報を与える処理のこと

  • 22

    (ア)に最もよく当てはまる選択肢を選んでください。 CNNにおいて、畳み込み層で抽出された特徴マップをもとに目的に応じた値を出力するための層のことを(ア)という。

    3.全結合層

  • 23

    (ア)に最もよく当てはまる選択肢を選んでください。 CNNは(ア)が共有されておりパラメータの数が少なくて済むという特徴がある。

    1.重み

  • 24

    (ア)に最もよく当てはまる選択肢を選んでください。 CNNにおいてカーネル(フィルタ)を使って画像の特徴を抽出する層のことを(ア)という。また、カーネルのサイズのことを(イ)という。

    3.畳み込み層

  • 25

    (イ)に最もよく当てはまる選択肢を選んでください。 CNNにおいてカーネル(フィルタ)を使って画像の特徴を抽出する層のことを(ア)という。また、カーネルのサイズのことを(イ)という。

    4.カーネル幅

  • 26

    深層信念ネットワークに関する説明として、最も適切な選択肢を選択してください。

    2.同じ層のユニットは結合しておらず、可視層と隠れ層のユニットが結合している

  • 27

    (ア)に最もよく当てはまる選択肢を選んでください。 オートエンコーダの代わりに制限付きボルツマンマシンを積み重ねたものを(ア)という。また、(ア)は(イ)によって提唱された手法である。

    3.深層信念ネットワーク

  • 28

    (イ)に最もよく当てはまる選択肢を選んでください。 オートエンコーダの代わりに制限付きボルツマンマシンを積み重ねたものを(ア)という。また、(ア)は(イ)によって提唱された手法である。

    1.ジェフリー・ヒントン

  • 29

    RNNにおけるAttentionの説明として最も適切な選択肢を選択してください。

    1.データの中からどのデータが予測で重要なのかを重み付けする方法

  • 30

    ニューラルネットワークにおいて「関係のある出力は重みが大きく、関係のない出力は重みを小さくすること」が原則だが、「現在にとって関係のない出力でも、未来にとって関係のある出力の場合重みを大きくする」ことがある。このとき、重みに対する矛盾が発生してしまう。このような問題を、(ア)と言います。

    2.出力重み衝突

  • 31

    1998年に、ニューヨーク大学のヤン・ルカンによって誤差逆伝播法を学習に用いた(ア)と呼ばれるCNNのモデルが発表される。

    2.LeNet

  • 32

    (ア)に最もよく当てはまる選択肢を選んでください。 学習の仕方を学習する方法を(ア)という。以前に行った学習から、最適なパラメータの初期値などの知見を獲得することで、その知見を使って効率的に学習を行うことができる。また、(ア)の代表的な手法に(イ)がある。

    2.メタ学習

  • 33

    (イ)に最もよく当てはまる選択肢を選んでください。 学習の仕方を学習する方法を(ア)という。以前に行った学習から、最適なパラメータの初期値などの知見を獲得することで、その知見を使って効率的に学習を行うことができる。また、(ア)の代表的な手法に(イ)がある。

    1.MAML

  • 34

    畳み込みニューラルネットワークの畳み込み処理に関する問題である。入力画像のサイズが8×18、フィルタのサイズ4×4、ストライドが2、パディングが1のとき、特徴マップのサイズとして最も適切な選択肢を選択してください。

    1. 4 × 9

  • 35

    (ア)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    4. 隠れ層

  • 36

    (イ)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    1.LSTM

  • 37

    (ウ)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    2. GRU

  • 38

    (エ)に最もよく当てはまる選択肢を選んでください。 リカレントニューラルネットワークは、(ア)に過去の状態を反映させる仕組みを導入しており、時系列データなどを上手く処理することができる。また、リカレントニューラルネットワークには、入力重み衝突や出力重み衝突があり、このような問題を解決するために考えられたのが(イ)である。しかし、(イ)は計算量が多くなってしまうデメリットがある。そこで、ゲートの数を減らして計算量を削減したモデル(ウ)が考えられた。(ウ)では、(エ)が、入力ゲート・出力ゲート・忘却ゲートの役割を果たしている。

    4. リセットゲートと更新ゲート

  • 39

    (ア)に最もよく当てはまる選択肢を選んでください。 LeNetは、入力層・(ア)・(イ)・全結合層・出力層を組み合わせたニューラルネットワークである。また、LeNetとネオコグニトロンの構造は似ており、(ア)はS細胞層に、(イ)はC細胞層に対応している。

    3. 畳み込み層

  • 40

    (イ)に最もよく当てはまる選択肢を選んでください。 LeNetは、入力層・(ア)・(イ)・全結合層・出力層を組み合わせたニューラルネットワークである。また、LeNetとネオコグニトロンの構造は似ており、(ア)はS細胞層に、(イ)はC細胞層に対応している。

    2. プーリング層

  • 41

    (ア)に最もよく当てはまる選択肢を選んでください。 最近のCNNでは、全結合層の代わりに、(ア)が用いられている。

    1. GAP層

  • 42

    (ア)に最もよく当てはまる選択肢を選んでください。 特徴量の範囲を比較がしやすいように処理することを(ア)という。(ア)には、正規化や標準化がある。

    4.スケーリング

  • 43

    (ア)に最もよく当てはまる選択肢を選んでください。 GPTやBERTは、大規模データを使用して(ア)したモデルを、用途に合わせて(イ)をすることで、様々なタスクを解くことができます。

    2.事前学習

  • 44

    (ア)に最もよく当てはまる選択肢を選んでください。 各特徴量の平均を0、分散が1になるように変換することを(ア)という。

    2.標準化

  • 45

    (イ)に最もよく当てはまる選択肢を選んでください。 GPTやBERTは、大規模データを使用して(ア)したモデルを、用途に合わせて(イ)をすることで、様々なタスクを解くことができます。

    再帰構造

  • 46

    (イ)に最もよく当てはまる選択肢を選んでください。 GPTやBERTは、大規模データを使用して(ア)したモデルを、用途に合わせて(イ)をすることで、様々なタスクを解くことができます。

    4.転移学習

  • 47

    (ア)に最もよく当てはまる選択肢を選んでください。 画像や音声など様々なデータから一定の規則・ルールを見つけ識別することを(ア)という。

    2.パターン認識

  • 48

    (ア)に最もよく当てはまる選択肢を選んでください。 RNNは、(ア)をもったニューラルネットワークである。また、RNNにおいて、時間軸に沿って誤差を反映させていくことを(イ)という。

    1.再帰構造

  • 49

    (ア)に最もよく当てはまる選択肢を選んでください。 福島によって、単純型細胞、複雑型細胞のはたらきをもとに(ア)と呼ばれるモデルが作られる。(ア)は初期のCNNモデルである。

    2.ネオコグニトロン

  • 50

    (ア)に最もよく当てはまる選択肢を選んでください。 過去のデータだけではなく、未来のデータからも学習できるようにしたモデルのことを(ア)という。自然言語処理の場合、過去の単語だけではなく、未来の単語も使用することで意味の推測精度を高めることができる。

    1.双方向RNN

  • 51

    (イ)に最もよく当てはまる選択肢を選んでください。 RNNは、(ア)をもったニューラルネットワークである。また、RNNにおいて、時間軸に沿って誤差を反映させていくことを(イ)という。

    3.BPTT

  • 52

    (ア)に最もよく当てはまる選択肢を選んでください。 CNNの(ア)は視覚野の局所受容野に対応する。

    1.畳み込み層

  • 53

    (ア)に最もよく当てはまる選択肢を選んでください。 CNNにおいて、畳み込み層で抽出された特徴マップをもとに目的に応じた値を出力するための層のことを(ア)という。

    3.全結合層

  • 54

    (ア)に最もよく当てはまる選択肢を選んでください。 畳み込み層で出力した特徴マップをルールに従って小さくする層を(ア)という。

    4.プーリング層

  • 55

    CNNに関する説明として、最も不適切な選択肢を選択してください。

    3.プーリング層には特有の重みが存在し複雑な計算を行う必要がある

  • 56

    (ア)に最もよく当てはまる選択肢を選んでください。 積層オートエンコーダは、オートエンコーダを積み重ねたものである。しかし、オートエンコーダをいくら積み重ねたとしても、出力値と入力値が同じになるように学習しているため、(ア)の状態である。そこで、出力層に予測を行う層を追加することで、予測などを行うことができるようになる。これにより、(イ)が可能になる。

    1.教師なし学習

  • 57

    (イ)に最もよく当てはまる選択肢を選んでください。 積層オートエンコーダは、オートエンコーダを積み重ねたものである。しかし、オートエンコーダをいくら積み重ねたとしても、出力値と入力値が同じになるように学習しているため、(ア)の状態である。そこで、出力層に予測を行う層を追加することで、予測などを行うことができるようになる。これにより、(イ)が可能になる。

    2.教師あり学習

  • 58

    (ア)に最もよく当てはまる選択肢を選んでください。 積層オートエンコーダにロジスティック層などを後から加えた場合、モデル全体の重みを調整する必要がある。このように、仕上げとして、モデル全体の重みを調整することを(ア)という。

    1.ファインチューニング

  • 59

    ア)に最もよく当てはまる選択肢を選んでください。 カーネル幅とストライドが同じ場合、アベレージプーリングとマックスプーリングの出力結果のサイズは(ア)。

    4.同じになる

  • 60

    (ア)に最もよく当てはまる選択肢を選んでください。 RNNにおいて訓練のとき、前の時刻の正解データを現時点の入力データとして使用する手法のことを(ア)という。

    3.教師強制

  • 61

    (ア)に最もよく当てはまる選択肢を選んでください。 RNN エンコーダ-デコーダでは、エンコーダで入力された時系列データを(ア)に変換し、デコーダで(ア)を時系列データに変換し出力する。

    2.固定長のベクトル