ログイン

B-3 深層学習 応用③
44問 • 4ヶ月前
  • t.tamura
  • 通報

    問題一覧

  • 1

    強化学習の手法として、動的計画法、モンテカルロ法、TD学習、TRPOなどがある。( あ )は、目標の価値と現在の価値のずれを修正していくことによって、価値関数を推定する方法である。( あ )の代表的な手法として、SarsaとQ学習がある。 ( あ )の選択肢として最も適切なものを選べ。

    TD学習

  • 2

    Q学習の説明として適切でないものを1つ選べ。

    行動価値関数Qの更新が行動の決定方法に依存する。

  • 3

    方策勾配に基づくアルゴリズムにおいては方策勾配の定理により、目的関数 J(θ) の θ に関する勾配を以下のように計算できる。 ( あ )に当てはまるものとして、適切なものを1つ選べ。

  • 4

    「入力データが時系列データであり、入力データ間に独立性が無い」という問題に対してDQNでは( あ )を適用した。( あ ) において、エージェントが経験した状態・行動・報酬・遷移先は一旦メモリに保存される。損失の計算を行う際にはメモリに保存したものでランダムサンプリングを行う。 ( あ ) に当てはまる用語として、適切なものを1つ選べ。

    Experience Reply

  • 5

    「価値関数が小さく更新されただけでも方策が大きく変わってしまう」という問題に対して、DQNでは(い)を適用した。 ( い ) は学習の目標値の計算に用いる価値関数を固定する。一定期間の学習の間、目標値の計算に用いる価値関数のネットワークパラメータを固定し、一定期間でこれを更新することで学習を安定させる。 ( い )に当てはまる用語として、適切なものを1つ選べ。

    Target Q-Network

  • 6

    「報酬のスケールは与えられたタスクによって大きく異なる」という問題に対して、DQNでは( う )を適用した。( う )は報酬の値を[-1, +1]の範囲に制限することで学習を安定させる。報酬の大小を区別できなくなるデメリットはあるものの、学習が安定するメリットの方が大きい。 ( う )に当てはまる用語として、適切なものを1つ選べ。

    報酬のクリッピング

  • 7

    強化学習の1つであるQ学習に深層学習を適用した手法としてDQNがある。強化学習において、深層ニューラルネットワークをQ関数や方策関数の表現に使用する理由について、以下のうちから適切なものを1つ選べ。

    複雑な状態や行動空間を効率的に学習し、高い汎化能力を示すため。

  • 8

    2016年にGoogle傘下のDeepMind社から発表された強化学習モデルに、A3Cがある。方策反復ベースの深層強化学習モデルとして代表的なアルゴリズムのひとつである。 A3Cとは、Advantage学習、Actor-Critic、Asynchronous(非同期)の3つを融合させたものからとっている。 A3Cは、サンプルの生成を( あ ) に行い、パラメータの更新を( い )で行うことで、高速かつ高精度な学習を可能とした。またDQNで行われていたExperience Replayを廃止することで、( う )系のニューラルネットワークを利用することができるようなった。 ( あ ) と( い )を組み合わせた選択肢として、適切なものを1つ選べ。

    (あ)並列 (い)非同期

  • 9

    2016年にGoogle傘下のDeepMind社から発表された強化学習モデルに、A3Cがある。方策反復ベースの深層強化学習モデルとして代表的なアルゴリズムのひとつである。 A3Cとは、Advantage学習、Actor-Critic、Asynchronous(非同期)の3つを融合させたものからとっている。 A3Cは、サンプルの生成を( あ ) に行い、パラメータの更新を( い )で行うことで、高速かつ高精度な学習を可能とした。またDQNで行われていたExperience Replayを廃止することで、( う )系のニューラルネットワークを利用することができるようなった。 ( う )の選択肢として、適切なものを1つ選べ。

    RNN

  • 10

    Advantage学習とは、Q関数を「1ステップ先でなく、2ステップ以上先まで動かして更新する」ようにしたものである。 Advantage学習に関連する説明文のうち、誤っている説明文をひとつ選べ。

    途中の行動を決めるときに学習途中のQ関数を使用するため、適切な行動を選ぶ確率が高くなる。

  • 11

    Actor-Critic に関連する説明文のうち、誤っている説明文をひとつ選べ。

    Actorは価値関数、Criticは方策を学習する。

  • 12

    強化学習では、エージェントが各タイムステップにおいて与えられた環境のもと行動を選択し、報酬と次の状態を得る。強化学習の手法としてDQNとA3Cがあり、それぞれはQ学習と方策勾配法を基礎にした手法である。 DQNとA3Cに関連する説明文について、以下のうち適切なものを1つ選べ。

    DQNではExperience Replayを用いて安定した学習を実現し、A3Cでは分散並列処理によって効率的な学習が可能になる。

  • 13

    転移学習とは、あるタスクで学習した重みが別のタスクに対しても有用であることを利用して、他のタスクに対しても利用することで、学習コストを低減させたり、汎化性能を向上させる方法である。転移学習は学習済みモデルの重みをそのまま使うが、( あ )は学習済みのモデルの最後の一部分の重みを再学習させて、新しいタスクについても適合できるようにするものを指す。 ( あ )の選択肢として、適切なものを1つ選べ。

    ファインチューニング

  • 14

    以下の選択肢から、転移学習などに関して説明した分に関して誤ったものを1つ選べ。

    ワンショット学習は、転移前のタスクで表現学習を行い、その表現を利用することで転移先のタスクを実行する。このとき、転移先のタスクにおいてはラベル付き事例が与えられない。

  • 15

    ドメインシフトの影響を緩和するために一般的に用いられるアプローチはについて適切なものを1つ選べ。

    データ拡張(Data Augmentation)やドメイン適応手法を用いて、異なるドメイン間のギャップを縮める。

  • 16

    ドメイン適応は、ソースドメインで訓練されたモデルを、異なるドメインに適用するために、ソースドメインとターゲットドメイン間の( あ )を調整するプロセスです。このプロセスは、特にラベルなしデータが少ないか全くない状況で有用です。 ( あ )に当てはまる語句について、以下のうちから適切なものを1つ選べ。

    データ分布

  • 17

    コード1のプログラムは、転移学習を行う為の事前準備である。コード1のプログラムと図1のネットワーク構成図をヒントにして、コード2のプログラムを転移学習を行うプログラムとして完成させたい。 ( あ )に当てはまる組み合わせについて、以下のうち正しい選択肢を1つ選べ。

    classifier[6]

  • 18

    コード1のプログラムは、転移学習を行う為の事前準備である。コード1のプログラムと図1のネットワーク構成図をヒントにして、コード2のプログラムを転移学習を行うプログラムとして完成させたい。 ( い )に当てはまる組み合わせについて、以下のうち正しい選択肢を1つ選べ。

    10

  • 19

    半教師あり学習について、以下のうち誤っている選択肢を1つ選べ。

    アプローチと手法の観点から、「一致性正規化」、「疑似ラベル」、「エントロピー最小化」の3つに大別される。

  • 20

    自己教師あり学習の一環としての Contrastive Learning では、2つのデータポイントが使用される。この手法の主な目的は、データポイントが表す特徴を学習することにあるが、具体的にどのようなプロセスを通じてこの目的を達成するかについて、適切なものを以下のうちから1つ選べ。

    類似した特徴を持つデータポイント間の距離を縮めることと、異なるカテゴリのデータポイント間の距離を拡大することにより、データの区別を明確にする。

  • 21

    半教師あり学習は、教師あり学習と違った手法でモデルの訓練を行う。 半教師あり学習の説明文について、以下のうちから適切なものを1つ選べ。

    半教師あり学習は、限られた教師ありデータと大量の教師なしデータを用い、モデルの学習を行う。手法には一致性正則化、疑似ラベルなどがあり、これらはモデルの予測精度を高めるのに役立つ。

  • 22

    自己教師あり学習は、ラベルなしのデータから自動的に学習を進める手法であり、ラベル付けのコストを削減しつつ、データの本質的な特徴を学習することが可能である。この手法の適用例として、Constrictive Learningがある。 自己教師あり学習の説明文について、以下のうちから適切なものを1つ選べ。

    Constrictive Learningを用いた自己教師あり学習では、対象物の本質的な特徴を理解するために、同じかどうかという問いを通じてデータを分析する。

  • 23

    表現学習は機械学習の一分野である。深層学習における表現学習は、多層のネットワークを利用してより意味のある抽象的な特徴表現を学習することで、深層学習の予測精度などを大幅に向上することができる。 表現学習における説明文について、以下のうちから誤っているものを1つ選べ。

    表現学習は生データから特徴を自動的に発見する手法であるが、これは主にテキストデータにのみ適用可能であり、画像や音声データには適用できない。

  • 24

    Triplet loss は同じ人物・物体の画像(正例)の距離は最小になるように学習し、別の人物・物体の画像の距離(負例)は最大になるように学習する。ある人物・物体の画像 x_i^a (anchor) が、他人・他物体の任意の画像 x_i^n (negative) との距離よりも、同じ人物 x_i^p (positive)の他のすべての画像との距離が近くなるようにするため、それぞれの関係性をマージンα を用いて( あ )とする。 ( あ )に当てはまる数式について、以下のうちから適切なものを1つ選べ。

  • 25

    メトリックラーニング(距離学習)とは、サンプルを別空間に埋め込み、サンプルとの距離 metric に基づいて類似度を判定できるように学習する手法のことである。 メトリックラーニングは、同じクラスのサンプル間の距離は小さくし異なるクラスのサンプル間の距離を大きくすることで判別を可能とする。 直接的にサンプル同士の距離をロスとして利用するアプローチと、同クラスのサンプル間の距離を短縮するような特徴量とそれに対応するクラスの中心位置との距離を利用する Softmax を用いたアプローチが存在する。 メトリックラーニングがよく利用されるタスクとして不適切なものを1つ選べ。

    物体検出

  • 26

    メトリックラーニング(距離学習)とは、サンプルを別空間に埋め込み、サンプルとの距離 metric に基づいて類似度を判定できるように学習する手法のことである。 メトリックラーニングは、同じクラスのサンプル間の距離は小さくし異なるクラスのサンプル間の距離を大きくすることで判別を可能とする。 直接的にサンプル同士の距離をロスとして利用するアプローチと、同クラスのサンプル間の距離を短縮するような特徴量とそれに対応するクラスの中心位置との距離を利用する Softmax を用いたアプローチが存在する。 「直接的にサンプル同士の距離をロスとして利用するアプローチ」に当てはまる手法を1つ選べ。

    SiameseNet

  • 27

    距離学習の代表的なモデルのひとつに、Siamese neural network(SiameseNet) がある。同じパラメータと重みを共有する複数個のニューラルネットワークを用意し、二つの異なる入力から出力されたもの同士を比べることで、入力データの関係性を測定する。 contrastive loss(対照損失)が損失関数として利用されるが、contrastive loss が抱えている問題を改良したTripletLoss なども発表されている。 SiameseNet について一般的に誤っているものを1つ選べ。

    クラスの数が少なく、各クラスのデータが多い場合に有効に働く。

  • 28

    距離学習の代表的なモデルのひとつに、Siamese neural network(SiameseNet) がある。同じパラメータと重みを共有する複数個のニューラルネットワークを用意し、二つの異なる入力から出力されたもの同士を比べることで、入力データの関係性を測定する。 contrastive loss(対照損失)が損失関数として利用されるが、contrastive loss が抱えている問題を改良したTripletLoss なども発表されている。 Contrastive loss について一般的に誤っているものを1つ選べ。

    ユークリッド距離以外の、ほかの類似度メトリックを利用することはできない。

  • 29

    距離学習の代表的なモデルのひとつに、Siamese neural network(SiameseNet) がある。同じパラメータと重みを共有する複数個のニューラルネットワークを用意し、二つの異なる入力から出力されたもの同士を比べることで、入力データの関係性を測定する。 contrastive loss(対照損失)が損失関数として利用されるが、contrastive loss が抱えている問題を改良したTripletLoss なども発表されている。 Triplet loss について一般的に誤っているものを1つ選べ。

    対照損失よりも計算コストが多いため、利用には慎重になる必要がある。

  • 30

    XAIはExplainable AI(説明可能なAI)のことで、AIが導き出した結果の背景にある理由(プロセス)を明らかにしようとする取り組みやそのモデルのことである。 XAIの技術として、代表的なものに( あ )、LIME、SHAPなどがある。 ( あ )とは、クラス分類予測をしたときに、モデルが重要視した個所を可視化する技術で、CAMの技術を汎用化したものである。 LIMEとは、モデルの結果を可読表現(説明可能表現)を介して説明として提示する手法である。精度を犠牲にせずに解釈性を高めることができ、適用するためにモデル自体に手を加える必要がなく、あらゆるモデルに適用できる点が特徴となる。 SHAPとは、LIMEと同様の設計思想ながら、モデルの予測結果に対する各変数(特徴量)の寄与(重要度)を求めることで、より人間の納得がいく結果が得られやすくなった。 ( あ )に当てはまる選択肢について、以下から1つ選べ。

    Grad-CAM

  • 31

    Explainable AI(XAI)は、AIの判断プロセスを人間が理解可能にする技術や研究分野です。XAIの説明文について、以下のうちから正しいものを1つ選べ。

    XAIでは、Grad-CAM、LIMEなどのツールが、AIの意思決定プロセスの透明化に使用される。

  • 32

    2017年にIEEEで発表された、クラス分類予測をしたときにモデルが重要視した箇所を可視化する技術として、Grad-CAMがある。Grad-CAMはCAMの技術を汎用化したものである。 Grad-CAMにおける説明文として以下のうちから誤っている選択肢を1つ選べ。

    Grad-CAMは、モデルの最終層だけでなく、中間層の出力に対する勾配も利用して、予測に対する各ピクセルの重要度を評価する。これにより、ネットワーク全体の異なる層の影響を同時に考慮することができる。

  • 33

    CNNなどを用いて画像を予測した際に精度が上がらない場合に理由がわからない場合がある。 そのようなときに( あ )を用いて、画像分類の根拠となる部分をモデルがどう判断しているのか確かめることでモデルの問題点が分かる場合がある。 下図の写真では以下の結果になったが、この結果からこのモデルは( い )を重要な情報として認識していることが分かった。 ( あ )( い )に当てはまる組み合わせとして適切なものを1つ選べ。

    (あ)Grad-CAM (い)猫

  • 34

    コード1のプログラム内の Grad-CAM を適応するVGG16モデルの層を指定する( あ )について、以下のうち最も妥当な選択肢を1つ選べ。

    model.features[-1]

  • 35

    ‘ClassifierOutputTarget(281)’ は猫である。Gard-CAM の出力結果として、図1が得られた。このヒートマップが赤くなっている部分から考察できる事として、以下のうち正しい選択肢を1つ選べ。

    赤くなっている部分は、モデルが特定のクラスを識別する際に最も重要と判断した画像領域を示している。

  • 36

    XAIはExplainable AI(説明可能なAI)のことで、AIが導き出した結果の背景にある理由(プロセス)を明らかにしようとする取り組みやそのモデルのことである。XAIの技術として、代表的なものにGrad-CAM、( あ )、( い )などがある。 Grad-CAMとは、クラス分類予測をしたときに、モデルが重要視した個所を可視化する技術で、CAMの技術を汎用化したものである。 ( あ )とは、モデルの結果を可読表現(説明可能表現)を介して説明として提示する手法である。精度を犠牲にせずに解釈性を高めることができ、適用するためにモデル自体に手を加える必要がなく、あらゆるモデルに適用できる点が特徴となる。 ( あ )に当てはまる選択肢について、以下から1つ選べ。

    LIME

  • 37

    XAIはExplainable AI(説明可能なAI)のことで、AIが導き出した結果の背景にある理由(プロセス)を明らかにしようとする取り組みやそのモデルのことである。XAIの技術として、代表的なものにGrad-CAM、( あ )、( い )などがある。 Grad-CAMとは、クラス分類予測をしたときに、モデルが重要視した個所を可視化する技術で、CAMの技術を汎用化したものである。 ( い )とは、( あ )と同様の設計思想ながら、モデルの予測結果に対する各変数(特徴量)の寄与(重要度)を求めることで、より人間の納得がいく結果が得られやすくなった。 ( い )に当てはまる選択肢について、以下から1つ選べ。

    SHAP

  • 38

    機械学習モデルの解釈を行うにあたって、主な解釈方法に大域的解釈と局所的解釈がある。機械学習モデルにおけるそれぞれの解釈方法に関する次の記述のうち、誤っているものを1つ選べ。

    大域的な解釈はモデル全体の動作を理解するために、個々の予測の結果を詳細に分析し、それに基づいてモデルの動作を一般化する。

  • 39

    機械学習やニューラルネットワークなどが社会において利用されることが普及していくと、同時にその解釈性が低いことが問題として挙げられるようになった。 2016年にデータ分析の国際会議「KDD」でワシントン州立大学シアトル校の研究チームから発表された説明可能AIの手法として( あ )が挙げられる。一般に( あ )は複雑なモデルの予測を局所的に解釈可能な方法で説明するために、特定の予測の近傍で新しいデータサンプルを生成し、それらに基づいて( い )を訓練する。 ( あ )に当てはまる選択肢について、以下から1つ選べ。

    LIME

  • 40

    機械学習やニューラルネットワークなどが社会において利用されることが普及していくと、同時にその解釈性が低いことが問題として挙げられるようになった。 2016年にデータ分析の国際会議「KDD」でワシントン州立大学シアトル校の研究チームから発表された説明可能AIの手法として( あ )が挙げられる。一般に( あ )は複雑なモデルの予測を局所的に解釈可能な方法で説明するために、特定の予測の近傍で新しいデータサンプルを生成し、それらに基づいて( い )を訓練する。 ( い )に当てはまる選択肢について、以下から1つ選べ

    線形モデル

  • 41

    モデルの予測結果に対する各変数(特徴量)の寄与(重要度)を求める手法の1つとして、LIMEと同様の設計思想で作られてたSHAPがある。SHAPの分析における主要な特徴に関する次の記述のうち、誤っているものを1つ選べ。

    SHAPでは、全ての特徴量に均等な重要度を割り当てることが重要であるため不偏性を持つ。

  • 42

    SHAPとは、2017年にNIPSでワシントン州立大学シアトル校を中心とした研修チームから発表された解釈可能化手法である。基本的にLIMEと同様の設計思想で作られており、利用する説明モデルも同じ線形モデルであるが、SHAPはより理想的な説明への要請に基づいた説明法である。 SHAPが説明可能性なモデルとして掲げている理想的な要請は3つある。 1つ目は( あ )で、特定の入力xのもとのモデルfを近似する場合、局所精度では、説明モデルの出力が一致する必要がある。 2つ目は( い )で、欠落した特徴量が結果に影響を与えないようにする必要がある。 3つめは( う )で、モデルが変更されて、ある特徴量z’の有無でf’の値がfよりも大きく変わるのであれば、f’におけるある特徴量z’の貢献度はfよりも大きくなる必要がある。 ( あ )に当てはまる選択肢について、以下から1つ選べ。

    Local accuracy(局所的精度)

  • 43

    SHAPとは、2017年にNIPSでワシントン州立大学シアトル校を中心とした研修チームから発表された解釈可能化手法である。基本的にLIMEと同様の設計思想で作られており、利用する説明モデルも同じ線形モデルであるが、SHAPはより理想的な説明への要請に基づいた説明法である。 SHAPが説明可能性なモデルとして掲げている理想的な要請は3つある。 1つ目は( あ )で、特定の入力xのもとのモデルfを近似する場合、局所精度では、説明モデルの出力が一致する必要がある。 2つ目は( い )で、欠落した特徴量が結果に影響を与えないようにする必要がある。 3つめは( う )で、モデルが変更されて、ある特徴量z’の有無でf’の値がfよりも大きく変わるのであれば、f’におけるある特徴量z’の貢献度はfよりも大きくなる必要がある。 ( い )に当てはまる選択肢について、以下から1つ選べ。

    Missingness(欠落性)

  • 44

    SHAPとは、2017年にNIPSでワシントン州立大学シアトル校を中心とした研修チームから発表された解釈可能化手法である。基本的にLIMEと同様の設計思想で作られており、利用する説明モデルも同じ線形モデルであるが、SHAPはより理想的な説明への要請に基づいた説明法である。 SHAPが説明可能性なモデルとして掲げている理想的な要請は3つある。 1つ目は( あ )で、特定の入力xのもとのモデルfを近似する場合、局所精度では、説明モデルの出力が一致する必要がある。 2つ目は( い )で、欠落した特徴量が結果に影響を与えないようにする必要がある。 3つめは( う )で、モデルが変更されて、ある特徴量z’の有無でf’の値がfよりも大きく変わるのであれば、f’におけるある特徴量z’の貢献度はfよりも大きくなる必要がある。 ( う )に当てはまる選択肢について、以下から1つ選べ。

    Consistency(一貫性)

  • A-1 数学・統計学/機械学習

    A-1 数学・統計学/機械学習

    t.tamura · 58問 · 5ヶ月前

    A-1 数学・統計学/機械学習

    A-1 数学・統計学/機械学習

    58問 • 5ヶ月前
    t.tamura

    E資格例題_2024年8月試験より適用

    E資格例題_2024年8月試験より適用

    t.tamura · 87問 · 3ヶ月前

    E資格例題_2024年8月試験より適用

    E資格例題_2024年8月試験より適用

    87問 • 3ヶ月前
    t.tamura

    ITパスポートパーフェクトラーニング過去問題集令和6年度第1部

    ITパスポートパーフェクトラーニング過去問題集令和6年度第1部

    t.tamura · 50問 · 2ヶ月前

    ITパスポートパーフェクトラーニング過去問題集令和6年度第1部

    ITパスポートパーフェクトラーニング過去問題集令和6年度第1部

    50問 • 2ヶ月前
    t.tamura

    ITパスポートパーフェクトラーニング過去問題集令和6年度第2部

    ITパスポートパーフェクトラーニング過去問題集令和6年度第2部

    t.tamura · 50問 · 2ヶ月前

    ITパスポートパーフェクトラーニング過去問題集令和6年度第2部

    ITパスポートパーフェクトラーニング過去問題集令和6年度第2部

    50問 • 2ヶ月前
    t.tamura

    問題一覧

  • 1

    強化学習の手法として、動的計画法、モンテカルロ法、TD学習、TRPOなどがある。( あ )は、目標の価値と現在の価値のずれを修正していくことによって、価値関数を推定する方法である。( あ )の代表的な手法として、SarsaとQ学習がある。 ( あ )の選択肢として最も適切なものを選べ。

    TD学習

  • 2

    Q学習の説明として適切でないものを1つ選べ。

    行動価値関数Qの更新が行動の決定方法に依存する。

  • 3

    方策勾配に基づくアルゴリズムにおいては方策勾配の定理により、目的関数 J(θ) の θ に関する勾配を以下のように計算できる。 ( あ )に当てはまるものとして、適切なものを1つ選べ。

  • 4

    「入力データが時系列データであり、入力データ間に独立性が無い」という問題に対してDQNでは( あ )を適用した。( あ ) において、エージェントが経験した状態・行動・報酬・遷移先は一旦メモリに保存される。損失の計算を行う際にはメモリに保存したものでランダムサンプリングを行う。 ( あ ) に当てはまる用語として、適切なものを1つ選べ。

    Experience Reply

  • 5

    「価値関数が小さく更新されただけでも方策が大きく変わってしまう」という問題に対して、DQNでは(い)を適用した。 ( い ) は学習の目標値の計算に用いる価値関数を固定する。一定期間の学習の間、目標値の計算に用いる価値関数のネットワークパラメータを固定し、一定期間でこれを更新することで学習を安定させる。 ( い )に当てはまる用語として、適切なものを1つ選べ。

    Target Q-Network

  • 6

    「報酬のスケールは与えられたタスクによって大きく異なる」という問題に対して、DQNでは( う )を適用した。( う )は報酬の値を[-1, +1]の範囲に制限することで学習を安定させる。報酬の大小を区別できなくなるデメリットはあるものの、学習が安定するメリットの方が大きい。 ( う )に当てはまる用語として、適切なものを1つ選べ。

    報酬のクリッピング

  • 7

    強化学習の1つであるQ学習に深層学習を適用した手法としてDQNがある。強化学習において、深層ニューラルネットワークをQ関数や方策関数の表現に使用する理由について、以下のうちから適切なものを1つ選べ。

    複雑な状態や行動空間を効率的に学習し、高い汎化能力を示すため。

  • 8

    2016年にGoogle傘下のDeepMind社から発表された強化学習モデルに、A3Cがある。方策反復ベースの深層強化学習モデルとして代表的なアルゴリズムのひとつである。 A3Cとは、Advantage学習、Actor-Critic、Asynchronous(非同期)の3つを融合させたものからとっている。 A3Cは、サンプルの生成を( あ ) に行い、パラメータの更新を( い )で行うことで、高速かつ高精度な学習を可能とした。またDQNで行われていたExperience Replayを廃止することで、( う )系のニューラルネットワークを利用することができるようなった。 ( あ ) と( い )を組み合わせた選択肢として、適切なものを1つ選べ。

    (あ)並列 (い)非同期

  • 9

    2016年にGoogle傘下のDeepMind社から発表された強化学習モデルに、A3Cがある。方策反復ベースの深層強化学習モデルとして代表的なアルゴリズムのひとつである。 A3Cとは、Advantage学習、Actor-Critic、Asynchronous(非同期)の3つを融合させたものからとっている。 A3Cは、サンプルの生成を( あ ) に行い、パラメータの更新を( い )で行うことで、高速かつ高精度な学習を可能とした。またDQNで行われていたExperience Replayを廃止することで、( う )系のニューラルネットワークを利用することができるようなった。 ( う )の選択肢として、適切なものを1つ選べ。

    RNN

  • 10

    Advantage学習とは、Q関数を「1ステップ先でなく、2ステップ以上先まで動かして更新する」ようにしたものである。 Advantage学習に関連する説明文のうち、誤っている説明文をひとつ選べ。

    途中の行動を決めるときに学習途中のQ関数を使用するため、適切な行動を選ぶ確率が高くなる。

  • 11

    Actor-Critic に関連する説明文のうち、誤っている説明文をひとつ選べ。

    Actorは価値関数、Criticは方策を学習する。

  • 12

    強化学習では、エージェントが各タイムステップにおいて与えられた環境のもと行動を選択し、報酬と次の状態を得る。強化学習の手法としてDQNとA3Cがあり、それぞれはQ学習と方策勾配法を基礎にした手法である。 DQNとA3Cに関連する説明文について、以下のうち適切なものを1つ選べ。

    DQNではExperience Replayを用いて安定した学習を実現し、A3Cでは分散並列処理によって効率的な学習が可能になる。

  • 13

    転移学習とは、あるタスクで学習した重みが別のタスクに対しても有用であることを利用して、他のタスクに対しても利用することで、学習コストを低減させたり、汎化性能を向上させる方法である。転移学習は学習済みモデルの重みをそのまま使うが、( あ )は学習済みのモデルの最後の一部分の重みを再学習させて、新しいタスクについても適合できるようにするものを指す。 ( あ )の選択肢として、適切なものを1つ選べ。

    ファインチューニング

  • 14

    以下の選択肢から、転移学習などに関して説明した分に関して誤ったものを1つ選べ。

    ワンショット学習は、転移前のタスクで表現学習を行い、その表現を利用することで転移先のタスクを実行する。このとき、転移先のタスクにおいてはラベル付き事例が与えられない。

  • 15

    ドメインシフトの影響を緩和するために一般的に用いられるアプローチはについて適切なものを1つ選べ。

    データ拡張(Data Augmentation)やドメイン適応手法を用いて、異なるドメイン間のギャップを縮める。

  • 16

    ドメイン適応は、ソースドメインで訓練されたモデルを、異なるドメインに適用するために、ソースドメインとターゲットドメイン間の( あ )を調整するプロセスです。このプロセスは、特にラベルなしデータが少ないか全くない状況で有用です。 ( あ )に当てはまる語句について、以下のうちから適切なものを1つ選べ。

    データ分布

  • 17

    コード1のプログラムは、転移学習を行う為の事前準備である。コード1のプログラムと図1のネットワーク構成図をヒントにして、コード2のプログラムを転移学習を行うプログラムとして完成させたい。 ( あ )に当てはまる組み合わせについて、以下のうち正しい選択肢を1つ選べ。

    classifier[6]

  • 18

    コード1のプログラムは、転移学習を行う為の事前準備である。コード1のプログラムと図1のネットワーク構成図をヒントにして、コード2のプログラムを転移学習を行うプログラムとして完成させたい。 ( い )に当てはまる組み合わせについて、以下のうち正しい選択肢を1つ選べ。

    10

  • 19

    半教師あり学習について、以下のうち誤っている選択肢を1つ選べ。

    アプローチと手法の観点から、「一致性正規化」、「疑似ラベル」、「エントロピー最小化」の3つに大別される。

  • 20

    自己教師あり学習の一環としての Contrastive Learning では、2つのデータポイントが使用される。この手法の主な目的は、データポイントが表す特徴を学習することにあるが、具体的にどのようなプロセスを通じてこの目的を達成するかについて、適切なものを以下のうちから1つ選べ。

    類似した特徴を持つデータポイント間の距離を縮めることと、異なるカテゴリのデータポイント間の距離を拡大することにより、データの区別を明確にする。

  • 21

    半教師あり学習は、教師あり学習と違った手法でモデルの訓練を行う。 半教師あり学習の説明文について、以下のうちから適切なものを1つ選べ。

    半教師あり学習は、限られた教師ありデータと大量の教師なしデータを用い、モデルの学習を行う。手法には一致性正則化、疑似ラベルなどがあり、これらはモデルの予測精度を高めるのに役立つ。

  • 22

    自己教師あり学習は、ラベルなしのデータから自動的に学習を進める手法であり、ラベル付けのコストを削減しつつ、データの本質的な特徴を学習することが可能である。この手法の適用例として、Constrictive Learningがある。 自己教師あり学習の説明文について、以下のうちから適切なものを1つ選べ。

    Constrictive Learningを用いた自己教師あり学習では、対象物の本質的な特徴を理解するために、同じかどうかという問いを通じてデータを分析する。

  • 23

    表現学習は機械学習の一分野である。深層学習における表現学習は、多層のネットワークを利用してより意味のある抽象的な特徴表現を学習することで、深層学習の予測精度などを大幅に向上することができる。 表現学習における説明文について、以下のうちから誤っているものを1つ選べ。

    表現学習は生データから特徴を自動的に発見する手法であるが、これは主にテキストデータにのみ適用可能であり、画像や音声データには適用できない。

  • 24

    Triplet loss は同じ人物・物体の画像(正例)の距離は最小になるように学習し、別の人物・物体の画像の距離(負例)は最大になるように学習する。ある人物・物体の画像 x_i^a (anchor) が、他人・他物体の任意の画像 x_i^n (negative) との距離よりも、同じ人物 x_i^p (positive)の他のすべての画像との距離が近くなるようにするため、それぞれの関係性をマージンα を用いて( あ )とする。 ( あ )に当てはまる数式について、以下のうちから適切なものを1つ選べ。

  • 25

    メトリックラーニング(距離学習)とは、サンプルを別空間に埋め込み、サンプルとの距離 metric に基づいて類似度を判定できるように学習する手法のことである。 メトリックラーニングは、同じクラスのサンプル間の距離は小さくし異なるクラスのサンプル間の距離を大きくすることで判別を可能とする。 直接的にサンプル同士の距離をロスとして利用するアプローチと、同クラスのサンプル間の距離を短縮するような特徴量とそれに対応するクラスの中心位置との距離を利用する Softmax を用いたアプローチが存在する。 メトリックラーニングがよく利用されるタスクとして不適切なものを1つ選べ。

    物体検出

  • 26

    メトリックラーニング(距離学習)とは、サンプルを別空間に埋め込み、サンプルとの距離 metric に基づいて類似度を判定できるように学習する手法のことである。 メトリックラーニングは、同じクラスのサンプル間の距離は小さくし異なるクラスのサンプル間の距離を大きくすることで判別を可能とする。 直接的にサンプル同士の距離をロスとして利用するアプローチと、同クラスのサンプル間の距離を短縮するような特徴量とそれに対応するクラスの中心位置との距離を利用する Softmax を用いたアプローチが存在する。 「直接的にサンプル同士の距離をロスとして利用するアプローチ」に当てはまる手法を1つ選べ。

    SiameseNet

  • 27

    距離学習の代表的なモデルのひとつに、Siamese neural network(SiameseNet) がある。同じパラメータと重みを共有する複数個のニューラルネットワークを用意し、二つの異なる入力から出力されたもの同士を比べることで、入力データの関係性を測定する。 contrastive loss(対照損失)が損失関数として利用されるが、contrastive loss が抱えている問題を改良したTripletLoss なども発表されている。 SiameseNet について一般的に誤っているものを1つ選べ。

    クラスの数が少なく、各クラスのデータが多い場合に有効に働く。

  • 28

    距離学習の代表的なモデルのひとつに、Siamese neural network(SiameseNet) がある。同じパラメータと重みを共有する複数個のニューラルネットワークを用意し、二つの異なる入力から出力されたもの同士を比べることで、入力データの関係性を測定する。 contrastive loss(対照損失)が損失関数として利用されるが、contrastive loss が抱えている問題を改良したTripletLoss なども発表されている。 Contrastive loss について一般的に誤っているものを1つ選べ。

    ユークリッド距離以外の、ほかの類似度メトリックを利用することはできない。

  • 29

    距離学習の代表的なモデルのひとつに、Siamese neural network(SiameseNet) がある。同じパラメータと重みを共有する複数個のニューラルネットワークを用意し、二つの異なる入力から出力されたもの同士を比べることで、入力データの関係性を測定する。 contrastive loss(対照損失)が損失関数として利用されるが、contrastive loss が抱えている問題を改良したTripletLoss なども発表されている。 Triplet loss について一般的に誤っているものを1つ選べ。

    対照損失よりも計算コストが多いため、利用には慎重になる必要がある。

  • 30

    XAIはExplainable AI(説明可能なAI)のことで、AIが導き出した結果の背景にある理由(プロセス)を明らかにしようとする取り組みやそのモデルのことである。 XAIの技術として、代表的なものに( あ )、LIME、SHAPなどがある。 ( あ )とは、クラス分類予測をしたときに、モデルが重要視した個所を可視化する技術で、CAMの技術を汎用化したものである。 LIMEとは、モデルの結果を可読表現(説明可能表現)を介して説明として提示する手法である。精度を犠牲にせずに解釈性を高めることができ、適用するためにモデル自体に手を加える必要がなく、あらゆるモデルに適用できる点が特徴となる。 SHAPとは、LIMEと同様の設計思想ながら、モデルの予測結果に対する各変数(特徴量)の寄与(重要度)を求めることで、より人間の納得がいく結果が得られやすくなった。 ( あ )に当てはまる選択肢について、以下から1つ選べ。

    Grad-CAM

  • 31

    Explainable AI(XAI)は、AIの判断プロセスを人間が理解可能にする技術や研究分野です。XAIの説明文について、以下のうちから正しいものを1つ選べ。

    XAIでは、Grad-CAM、LIMEなどのツールが、AIの意思決定プロセスの透明化に使用される。

  • 32

    2017年にIEEEで発表された、クラス分類予測をしたときにモデルが重要視した箇所を可視化する技術として、Grad-CAMがある。Grad-CAMはCAMの技術を汎用化したものである。 Grad-CAMにおける説明文として以下のうちから誤っている選択肢を1つ選べ。

    Grad-CAMは、モデルの最終層だけでなく、中間層の出力に対する勾配も利用して、予測に対する各ピクセルの重要度を評価する。これにより、ネットワーク全体の異なる層の影響を同時に考慮することができる。

  • 33

    CNNなどを用いて画像を予測した際に精度が上がらない場合に理由がわからない場合がある。 そのようなときに( あ )を用いて、画像分類の根拠となる部分をモデルがどう判断しているのか確かめることでモデルの問題点が分かる場合がある。 下図の写真では以下の結果になったが、この結果からこのモデルは( い )を重要な情報として認識していることが分かった。 ( あ )( い )に当てはまる組み合わせとして適切なものを1つ選べ。

    (あ)Grad-CAM (い)猫

  • 34

    コード1のプログラム内の Grad-CAM を適応するVGG16モデルの層を指定する( あ )について、以下のうち最も妥当な選択肢を1つ選べ。

    model.features[-1]

  • 35

    ‘ClassifierOutputTarget(281)’ は猫である。Gard-CAM の出力結果として、図1が得られた。このヒートマップが赤くなっている部分から考察できる事として、以下のうち正しい選択肢を1つ選べ。

    赤くなっている部分は、モデルが特定のクラスを識別する際に最も重要と判断した画像領域を示している。

  • 36

    XAIはExplainable AI(説明可能なAI)のことで、AIが導き出した結果の背景にある理由(プロセス)を明らかにしようとする取り組みやそのモデルのことである。XAIの技術として、代表的なものにGrad-CAM、( あ )、( い )などがある。 Grad-CAMとは、クラス分類予測をしたときに、モデルが重要視した個所を可視化する技術で、CAMの技術を汎用化したものである。 ( あ )とは、モデルの結果を可読表現(説明可能表現)を介して説明として提示する手法である。精度を犠牲にせずに解釈性を高めることができ、適用するためにモデル自体に手を加える必要がなく、あらゆるモデルに適用できる点が特徴となる。 ( あ )に当てはまる選択肢について、以下から1つ選べ。

    LIME

  • 37

    XAIはExplainable AI(説明可能なAI)のことで、AIが導き出した結果の背景にある理由(プロセス)を明らかにしようとする取り組みやそのモデルのことである。XAIの技術として、代表的なものにGrad-CAM、( あ )、( い )などがある。 Grad-CAMとは、クラス分類予測をしたときに、モデルが重要視した個所を可視化する技術で、CAMの技術を汎用化したものである。 ( い )とは、( あ )と同様の設計思想ながら、モデルの予測結果に対する各変数(特徴量)の寄与(重要度)を求めることで、より人間の納得がいく結果が得られやすくなった。 ( い )に当てはまる選択肢について、以下から1つ選べ。

    SHAP

  • 38

    機械学習モデルの解釈を行うにあたって、主な解釈方法に大域的解釈と局所的解釈がある。機械学習モデルにおけるそれぞれの解釈方法に関する次の記述のうち、誤っているものを1つ選べ。

    大域的な解釈はモデル全体の動作を理解するために、個々の予測の結果を詳細に分析し、それに基づいてモデルの動作を一般化する。

  • 39

    機械学習やニューラルネットワークなどが社会において利用されることが普及していくと、同時にその解釈性が低いことが問題として挙げられるようになった。 2016年にデータ分析の国際会議「KDD」でワシントン州立大学シアトル校の研究チームから発表された説明可能AIの手法として( あ )が挙げられる。一般に( あ )は複雑なモデルの予測を局所的に解釈可能な方法で説明するために、特定の予測の近傍で新しいデータサンプルを生成し、それらに基づいて( い )を訓練する。 ( あ )に当てはまる選択肢について、以下から1つ選べ。

    LIME

  • 40

    機械学習やニューラルネットワークなどが社会において利用されることが普及していくと、同時にその解釈性が低いことが問題として挙げられるようになった。 2016年にデータ分析の国際会議「KDD」でワシントン州立大学シアトル校の研究チームから発表された説明可能AIの手法として( あ )が挙げられる。一般に( あ )は複雑なモデルの予測を局所的に解釈可能な方法で説明するために、特定の予測の近傍で新しいデータサンプルを生成し、それらに基づいて( い )を訓練する。 ( い )に当てはまる選択肢について、以下から1つ選べ

    線形モデル

  • 41

    モデルの予測結果に対する各変数(特徴量)の寄与(重要度)を求める手法の1つとして、LIMEと同様の設計思想で作られてたSHAPがある。SHAPの分析における主要な特徴に関する次の記述のうち、誤っているものを1つ選べ。

    SHAPでは、全ての特徴量に均等な重要度を割り当てることが重要であるため不偏性を持つ。

  • 42

    SHAPとは、2017年にNIPSでワシントン州立大学シアトル校を中心とした研修チームから発表された解釈可能化手法である。基本的にLIMEと同様の設計思想で作られており、利用する説明モデルも同じ線形モデルであるが、SHAPはより理想的な説明への要請に基づいた説明法である。 SHAPが説明可能性なモデルとして掲げている理想的な要請は3つある。 1つ目は( あ )で、特定の入力xのもとのモデルfを近似する場合、局所精度では、説明モデルの出力が一致する必要がある。 2つ目は( い )で、欠落した特徴量が結果に影響を与えないようにする必要がある。 3つめは( う )で、モデルが変更されて、ある特徴量z’の有無でf’の値がfよりも大きく変わるのであれば、f’におけるある特徴量z’の貢献度はfよりも大きくなる必要がある。 ( あ )に当てはまる選択肢について、以下から1つ選べ。

    Local accuracy(局所的精度)

  • 43

    SHAPとは、2017年にNIPSでワシントン州立大学シアトル校を中心とした研修チームから発表された解釈可能化手法である。基本的にLIMEと同様の設計思想で作られており、利用する説明モデルも同じ線形モデルであるが、SHAPはより理想的な説明への要請に基づいた説明法である。 SHAPが説明可能性なモデルとして掲げている理想的な要請は3つある。 1つ目は( あ )で、特定の入力xのもとのモデルfを近似する場合、局所精度では、説明モデルの出力が一致する必要がある。 2つ目は( い )で、欠落した特徴量が結果に影響を与えないようにする必要がある。 3つめは( う )で、モデルが変更されて、ある特徴量z’の有無でf’の値がfよりも大きく変わるのであれば、f’におけるある特徴量z’の貢献度はfよりも大きくなる必要がある。 ( い )に当てはまる選択肢について、以下から1つ選べ。

    Missingness(欠落性)

  • 44

    SHAPとは、2017年にNIPSでワシントン州立大学シアトル校を中心とした研修チームから発表された解釈可能化手法である。基本的にLIMEと同様の設計思想で作られており、利用する説明モデルも同じ線形モデルであるが、SHAPはより理想的な説明への要請に基づいた説明法である。 SHAPが説明可能性なモデルとして掲げている理想的な要請は3つある。 1つ目は( あ )で、特定の入力xのもとのモデルfを近似する場合、局所精度では、説明モデルの出力が一致する必要がある。 2つ目は( い )で、欠落した特徴量が結果に影響を与えないようにする必要がある。 3つめは( う )で、モデルが変更されて、ある特徴量z’の有無でf’の値がfよりも大きく変わるのであれば、f’におけるある特徴量z’の貢献度はfよりも大きくなる必要がある。 ( う )に当てはまる選択肢について、以下から1つ選べ。

    Consistency(一貫性)