問題一覧
1
AIは物理的な機械の塊である
❌
2
AIの研究は、第二次世界大戦などを背景として始まった
⭕️
3
AIの進化に伴い、人間の仕事が奪われる可能性に加え、プライバシーや倫理的な問題が生じる可能性も危惧されている
⭕️
4
AIに知能をもたらす仕組みとして、大きく分けると、クラスタリングと機械学習の2つの手法がある
❌
5
ルールベースは、大量のルールをプログラミングする必要がない簡易的なシステムであり、開発やメンテナンスの時間とコストを節約できる。
❌
6
機械学習は、従来のルールベースの人工知能に対し、コンピューター自身がデータからパターンを見出し、予測や判断を行うと言うアプローチである
⭕️
7
教師あり学習とは、入力したデータに対して正解データのペアを与えずにモデルをトレーニングする手法である。
❌
8
次元削減とはデータの次元を減らすことで、情報保持しながらデータの特徴を抽出することをいう。
⭕️
9
強化学習は、ゲームのAIの開発などのみならず自動運転車のような実質世界の技術開発にも広く応用されている。
⭕️
10
ノーフリーランチ定理とは、どの問題にも万能で汎用的なアルゴリズムが存在するというものである。
❌
11
ニューラルネットワークを構成するノードが、情報や物事の大切さの情報量を調節することを「重み付け」という。
⭕️
12
過学習の回避方法であるドロップアウトとは、パラメーターを調整・制限して、モデルの複雑さを制限し、適切な量の情報を学習するようにする方法である。
❌
13
AIの4つのレベルのうち、レベル3は機械学習を利用したAIで、入力から自らデータパターンを見出し、それに基づいて最適な出力を調整して返すものである。
⭕️
14
シンギュラリティーとは技術的特異点ともいわれ、AIが人間を超越して機能的に自己進化する状態をいう。
⭕️
15
1980年代後半に、ジェフリー・ヒントンとテリー・セジュノスキーの率いる研究グループによって、ボルツマンマシンが提唱された。
⭕️
16
制限付きボルツマンマシンが改良されて、ボルツマンマシンが生まれた。
❌
17
制限付きボルツマンマシンは、人工ニューロンの間の接続を特定のルールに基づいて制約し、データ処理をネットワークの入力部分と推定部分の2つに分けることで、効率化している。
⭕️
18
制限付きボルツマンマシンは教師あり学習をすることはできるが、教師なし学習をすることはできない。
❌
19
自己回帰モデルは、過去のデータから将来を予測する方法で、株価や天気などの時間の経過により変化するデータの予測に特に効果的である。
⭕️
20
ディープラーニングは、人間の脳の動きを模倣した技術で、複雑なパターンを学習する能力があるが、2006年に制限付きボルツマンマシンを縦断的に重ねた深層ネットワークが提唱され、そこから飛躍的に発展した。
⭕️
21
CNNは、画像認識や画像処理において非常に効果的なモデルであるが、画像の局所的な特徴から全体的な特徴を抽出することはできない。
❌
22
VAEは、デコーダとエンコーダの2つの部分から構成されるが、デコーダの役割は入力データを、そのデータの重要な特徴に捉えた潜在ベクトル(潜在変数)と呼ばれる低次元の表現に変換することである
❌
23
GANは、生成器と識別器という2つのネットワークから構成され、トレーニングは、この2つのモデルが互いに競い合う形で行われる。
⭕️
24
RNNとは、回帰型ニュートラルネットワークのことで、過去の情報を記憶しながら、新しい入力を処理するという特性があり、動画や音声などの長い連続したシーケンスデータの処理に適する。
❌
25
LSTMは、並列学習に適し、大規模データの学習にも時間がかからない。
❌
26
Transformerモデルは、自己注意力を採用するモデルであるが、RNNやLSTMと異なり、データの順番に依存せず、すべての要素を一度に考慮に入れて処理できるという特性がある。
⭕️
27
BERTモデルの重要な特性の一つに双方向性があるが、これは単語の意味を決定する際に、その単語の前後の単語を利用することで、単語の意味がその周囲の文脈により変わる場合でも、適切に意味を捉えることができるという特性である。
⭕️
28
BERTモデルの特徴の1つのNSPは、ある文が別の文の直後に来るかどうかを予測するもので、これによりBARTには2つの文の関連性を理解する能力がある。
⭕️
29
BERTは、2019年にFacebookAIがLoBERTaの改良モデルとして発表したもので、LoBERTaの約10倍のデータ量と長い時間を使って訓練されている。
❌
30
ALBERTはBERTを軽量にモデルで、パラメーターの数を大幅に削減し、モデルの効率を向上させているが、ハードウェアリソースの制限や電力の制限など計算リソースが制限されている環境においては、高いパフォーマンスを実現することができない。
❌
31
GPT-2は非常に性能が高かったために、潜在的な誤用や悪用に関する危険性から、始めはフルモデルの公開が控えられた。
⭕️
32
GPT-3.5はInstructGPTと異なり、RLHFを採用していない。
❌
33
ハルシネーションとは、AIモデルが不正確な情報・誤った情報をあたかも正確な情報・正しい情報のように生成することをいい、GPT-4はGPT-3.5と比べハルネーションの割合が低下している。
⭕️
34
GPT-4は、マルチモーダルなモデルで、テキストや画像、音声、動画などの異なる種類のデータを一度に処理することが可能である。
⭕️
問題一覧
1
AIは物理的な機械の塊である
❌
2
AIの研究は、第二次世界大戦などを背景として始まった
⭕️
3
AIの進化に伴い、人間の仕事が奪われる可能性に加え、プライバシーや倫理的な問題が生じる可能性も危惧されている
⭕️
4
AIに知能をもたらす仕組みとして、大きく分けると、クラスタリングと機械学習の2つの手法がある
❌
5
ルールベースは、大量のルールをプログラミングする必要がない簡易的なシステムであり、開発やメンテナンスの時間とコストを節約できる。
❌
6
機械学習は、従来のルールベースの人工知能に対し、コンピューター自身がデータからパターンを見出し、予測や判断を行うと言うアプローチである
⭕️
7
教師あり学習とは、入力したデータに対して正解データのペアを与えずにモデルをトレーニングする手法である。
❌
8
次元削減とはデータの次元を減らすことで、情報保持しながらデータの特徴を抽出することをいう。
⭕️
9
強化学習は、ゲームのAIの開発などのみならず自動運転車のような実質世界の技術開発にも広く応用されている。
⭕️
10
ノーフリーランチ定理とは、どの問題にも万能で汎用的なアルゴリズムが存在するというものである。
❌
11
ニューラルネットワークを構成するノードが、情報や物事の大切さの情報量を調節することを「重み付け」という。
⭕️
12
過学習の回避方法であるドロップアウトとは、パラメーターを調整・制限して、モデルの複雑さを制限し、適切な量の情報を学習するようにする方法である。
❌
13
AIの4つのレベルのうち、レベル3は機械学習を利用したAIで、入力から自らデータパターンを見出し、それに基づいて最適な出力を調整して返すものである。
⭕️
14
シンギュラリティーとは技術的特異点ともいわれ、AIが人間を超越して機能的に自己進化する状態をいう。
⭕️
15
1980年代後半に、ジェフリー・ヒントンとテリー・セジュノスキーの率いる研究グループによって、ボルツマンマシンが提唱された。
⭕️
16
制限付きボルツマンマシンが改良されて、ボルツマンマシンが生まれた。
❌
17
制限付きボルツマンマシンは、人工ニューロンの間の接続を特定のルールに基づいて制約し、データ処理をネットワークの入力部分と推定部分の2つに分けることで、効率化している。
⭕️
18
制限付きボルツマンマシンは教師あり学習をすることはできるが、教師なし学習をすることはできない。
❌
19
自己回帰モデルは、過去のデータから将来を予測する方法で、株価や天気などの時間の経過により変化するデータの予測に特に効果的である。
⭕️
20
ディープラーニングは、人間の脳の動きを模倣した技術で、複雑なパターンを学習する能力があるが、2006年に制限付きボルツマンマシンを縦断的に重ねた深層ネットワークが提唱され、そこから飛躍的に発展した。
⭕️
21
CNNは、画像認識や画像処理において非常に効果的なモデルであるが、画像の局所的な特徴から全体的な特徴を抽出することはできない。
❌
22
VAEは、デコーダとエンコーダの2つの部分から構成されるが、デコーダの役割は入力データを、そのデータの重要な特徴に捉えた潜在ベクトル(潜在変数)と呼ばれる低次元の表現に変換することである
❌
23
GANは、生成器と識別器という2つのネットワークから構成され、トレーニングは、この2つのモデルが互いに競い合う形で行われる。
⭕️
24
RNNとは、回帰型ニュートラルネットワークのことで、過去の情報を記憶しながら、新しい入力を処理するという特性があり、動画や音声などの長い連続したシーケンスデータの処理に適する。
❌
25
LSTMは、並列学習に適し、大規模データの学習にも時間がかからない。
❌
26
Transformerモデルは、自己注意力を採用するモデルであるが、RNNやLSTMと異なり、データの順番に依存せず、すべての要素を一度に考慮に入れて処理できるという特性がある。
⭕️
27
BERTモデルの重要な特性の一つに双方向性があるが、これは単語の意味を決定する際に、その単語の前後の単語を利用することで、単語の意味がその周囲の文脈により変わる場合でも、適切に意味を捉えることができるという特性である。
⭕️
28
BERTモデルの特徴の1つのNSPは、ある文が別の文の直後に来るかどうかを予測するもので、これによりBARTには2つの文の関連性を理解する能力がある。
⭕️
29
BERTは、2019年にFacebookAIがLoBERTaの改良モデルとして発表したもので、LoBERTaの約10倍のデータ量と長い時間を使って訓練されている。
❌
30
ALBERTはBERTを軽量にモデルで、パラメーターの数を大幅に削減し、モデルの効率を向上させているが、ハードウェアリソースの制限や電力の制限など計算リソースが制限されている環境においては、高いパフォーマンスを実現することができない。
❌
31
GPT-2は非常に性能が高かったために、潜在的な誤用や悪用に関する危険性から、始めはフルモデルの公開が控えられた。
⭕️
32
GPT-3.5はInstructGPTと異なり、RLHFを採用していない。
❌
33
ハルシネーションとは、AIモデルが不正確な情報・誤った情報をあたかも正確な情報・正しい情報のように生成することをいい、GPT-4はGPT-3.5と比べハルネーションの割合が低下している。
⭕️
34
GPT-4は、マルチモーダルなモデルで、テキストや画像、音声、動画などの異なる種類のデータを一度に処理することが可能である。
⭕️