ログイン

6.4 法規制・倫理ガイドライン・社会問題
11問 • 1年前
  • Tsuyoshi Ikeda
  • 通報

    問題一覧

  • 1

    フィルターバブルが起きている例として、適切な選択肢を選べ

    特定のジャンルのウェブ記事にばかり注意を向けさせられる

  • 2

    AIが個人の意思に影響を与えてしまい、民主主義への驚異・阻害となりうる現象について不適切な選択肢を選べ

    レコメンドのアルゴリズムによって、ユーザに有益な情報ばかりが優先された結果、他の情報から遮断された状態に陥ってしまう現象をエコーチェンバーと呼ぶ

  • 3

    AIパーソナライズについて考えられる問題点として不適切な選択肢を選べ

    フィルターバブルと言う現象は、人々が自分の価値観に合わない情報を自ら積極的に回復しようとする現象のことである

  • 4

    AIの社会への浸透によってもたらされる変化や課題として不適切な選択肢を選べ

    AIアルゴリズムによって計算が行われ、人間の意志を介さないため、客観的な結果出力を期待できる、

  • 5

    AIが人間の仕事や能力に与える影響について不適切な選択肢を選べ

    AI技術の発展は、創出された新しい仕事に就くことによって、失業を免れる

  • 6

    高度な人工知能(AI)を搭載し、人間の関与なしに殺傷する能力を有する自律型致死兵器システム(ア)と呼ばれる。日本政府は(ア)の開発はしないと宣言する一方(イ)という立場をとっている

    (ア)LAWS (イ)人の意志が介在する自律兵器の開発は規制すべきではない

  • 7

    AIの軍事利用にまつわる動向について、適切な選択肢を選べ

    国連において、AIの軍事利用に関する規制が主張された

  • 8

    AI倫理の観点に基づいてインクルージョンの考え方として不適切な選択肢を選べ

    AIサービスの透明性を担保するために、予測出力だけではなく、AIによる意思決定の説明も合わせて、ユーザに提供すること

  • 9

    OpenAI社によって提供される文書生成AIサービスChstGPTを使用する上で、秘密情報の扱い方として不適切な選択肢を選べ

    APIを経由してChstGPTに入力した情報には、第三者がアクセスすることはないので、個人情報をはじめとする秘密情報の漏洩を防止する上で効果的といえる

  • 10

    生成AIサービスの提供企業の利用規約において、当社サービスの許容される使い方として、適切な選択肢を選べ

    冷え性に困っている利用者が、自身の参考のために冷え性の体質改善に関するアドバイスをAIに聞く

  • 11

    生成AIの正しい使い方として不適切な選択肢を選べ

    自社の技術に関する機密情報を含むソースコードを実行中にエラーが起きたため、そのソースコードをコビーし生成AIの入力欄に貼り付けて、エラーの要因を見つけてもらった後に、手動でそのエラーを元のソースコード上で修正する

  • 1.人工知能の定義と、技術動向・研究における問題

    1.人工知能の定義と、技術動向・研究における問題

    Tsuyoshi Ikeda · 23問 · 1年前

    1.人工知能の定義と、技術動向・研究における問題

    1.人工知能の定義と、技術動向・研究における問題

    23問 • 1年前
    Tsuyoshi Ikeda

    2.1.機械学習の基本概念・具体的な手法・精度評価

    2.1.機械学習の基本概念・具体的な手法・精度評価

    Tsuyoshi Ikeda · 22問 · 1年前

    2.1.機械学習の基本概念・具体的な手法・精度評価

    2.1.機械学習の基本概念・具体的な手法・精度評価

    22問 • 1年前
    Tsuyoshi Ikeda

    2.2.機械学習の基本概念・具体的な手法・精度評価

    2.2.機械学習の基本概念・具体的な手法・精度評価

    Tsuyoshi Ikeda · 20問 · 1年前

    2.2.機械学習の基本概念・具体的な手法・精度評価

    2.2.機械学習の基本概念・具体的な手法・精度評価

    20問 • 1年前
    Tsuyoshi Ikeda

    2.3.機械学習の基本概念・具体的な手法・精度評価

    2.3.機械学習の基本概念・具体的な手法・精度評価

    Tsuyoshi Ikeda · 16問 · 1年前

    2.3.機械学習の基本概念・具体的な手法・精度評価

    2.3.機械学習の基本概念・具体的な手法・精度評価

    16問 • 1年前
    Tsuyoshi Ikeda

    3.1.ディープラーニングの仕組みと応用

    3.1.ディープラーニングの仕組みと応用

    Tsuyoshi Ikeda · 17問 · 1年前

    3.1.ディープラーニングの仕組みと応用

    3.1.ディープラーニングの仕組みと応用

    17問 • 1年前
    Tsuyoshi Ikeda

    3.2.ディープラーニングの仕組みと応用

    3.2.ディープラーニングの仕組みと応用

    Tsuyoshi Ikeda · 21問 · 1年前

    3.2.ディープラーニングの仕組みと応用

    3.2.ディープラーニングの仕組みと応用

    21問 • 1年前
    Tsuyoshi Ikeda

    3.3.ディープラーニングの仕組みと応用

    3.3.ディープラーニングの仕組みと応用

    Tsuyoshi Ikeda · 12問 · 1年前

    3.3.ディープラーニングの仕組みと応用

    3.3.ディープラーニングの仕組みと応用

    12問 • 1年前
    Tsuyoshi Ikeda

    3.4.ディープラーニングの仕組みと応用

    3.4.ディープラーニングの仕組みと応用

    Tsuyoshi Ikeda · 27問 · 1年前

    3.4.ディープラーニングの仕組みと応用

    3.4.ディープラーニングの仕組みと応用

    27問 • 1年前
    Tsuyoshi Ikeda

    4.1.ディープラーニングの研究分野

    4.1.ディープラーニングの研究分野

    Tsuyoshi Ikeda · 12問 · 1年前

    4.1.ディープラーニングの研究分野

    4.1.ディープラーニングの研究分野

    12問 • 1年前
    Tsuyoshi Ikeda

    4.2.ディープラーニングの研究分野

    4.2.ディープラーニングの研究分野

    Tsuyoshi Ikeda · 19問 · 1年前

    4.2.ディープラーニングの研究分野

    4.2.ディープラーニングの研究分野

    19問 • 1年前
    Tsuyoshi Ikeda

    4.3.ディープラーニングの研究分野

    4.3.ディープラーニングの研究分野

    Tsuyoshi Ikeda · 3回閲覧 · 26問 · 1年前

    4.3.ディープラーニングの研究分野

    4.3.ディープラーニングの研究分野

    3回閲覧 • 26問 • 1年前
    Tsuyoshi Ikeda

    5.1 AI・データ活用の社会実装とプロジェクトの進め方

    5.1 AI・データ活用の社会実装とプロジェクトの進め方

    Tsuyoshi Ikeda · 23問 · 1年前

    5.1 AI・データ活用の社会実装とプロジェクトの進め方

    5.1 AI・データ活用の社会実装とプロジェクトの進め方

    23問 • 1年前
    Tsuyoshi Ikeda

    6.1 法規制・倫理ガイドライン・社会問題

    6.1 法規制・倫理ガイドライン・社会問題

    Tsuyoshi Ikeda · 19問 · 1年前

    6.1 法規制・倫理ガイドライン・社会問題

    6.1 法規制・倫理ガイドライン・社会問題

    19問 • 1年前
    Tsuyoshi Ikeda

    6.2 法規制・倫理ガイドライン・社会問題

    6.2 法規制・倫理ガイドライン・社会問題

    Tsuyoshi Ikeda · 21問 · 1年前

    6.2 法規制・倫理ガイドライン・社会問題

    6.2 法規制・倫理ガイドライン・社会問題

    21問 • 1年前
    Tsuyoshi Ikeda

    6.3 法規制・倫理ガイドライン・社会問題

    6.3 法規制・倫理ガイドライン・社会問題

    Tsuyoshi Ikeda · 13問 · 1年前

    6.3 法規制・倫理ガイドライン・社会問題

    6.3 法規制・倫理ガイドライン・社会問題

    13問 • 1年前
    Tsuyoshi Ikeda

    7.1 AIを理解するための数学・統計学

    7.1 AIを理解するための数学・統計学

    Tsuyoshi Ikeda · 13問 · 1年前

    7.1 AIを理解するための数学・統計学

    7.1 AIを理解するための数学・統計学

    13問 • 1年前
    Tsuyoshi Ikeda

    7.2 AIを理解するための数学・統計学

    7.2 AIを理解するための数学・統計学

    Tsuyoshi Ikeda · 17問 · 1年前

    7.2 AIを理解するための数学・統計学

    7.2 AIを理解するための数学・統計学

    17問 • 1年前
    Tsuyoshi Ikeda

    問題1-01

    問題1-01

    Tsuyoshi Ikeda · 20問 · 1年前

    問題1-01

    問題1-01

    20問 • 1年前
    Tsuyoshi Ikeda

    問題1-02

    問題1-02

    Tsuyoshi Ikeda · 20問 · 1年前

    問題1-02

    問題1-02

    20問 • 1年前
    Tsuyoshi Ikeda

    問題一覧

  • 1

    フィルターバブルが起きている例として、適切な選択肢を選べ

    特定のジャンルのウェブ記事にばかり注意を向けさせられる

  • 2

    AIが個人の意思に影響を与えてしまい、民主主義への驚異・阻害となりうる現象について不適切な選択肢を選べ

    レコメンドのアルゴリズムによって、ユーザに有益な情報ばかりが優先された結果、他の情報から遮断された状態に陥ってしまう現象をエコーチェンバーと呼ぶ

  • 3

    AIパーソナライズについて考えられる問題点として不適切な選択肢を選べ

    フィルターバブルと言う現象は、人々が自分の価値観に合わない情報を自ら積極的に回復しようとする現象のことである

  • 4

    AIの社会への浸透によってもたらされる変化や課題として不適切な選択肢を選べ

    AIアルゴリズムによって計算が行われ、人間の意志を介さないため、客観的な結果出力を期待できる、

  • 5

    AIが人間の仕事や能力に与える影響について不適切な選択肢を選べ

    AI技術の発展は、創出された新しい仕事に就くことによって、失業を免れる

  • 6

    高度な人工知能(AI)を搭載し、人間の関与なしに殺傷する能力を有する自律型致死兵器システム(ア)と呼ばれる。日本政府は(ア)の開発はしないと宣言する一方(イ)という立場をとっている

    (ア)LAWS (イ)人の意志が介在する自律兵器の開発は規制すべきではない

  • 7

    AIの軍事利用にまつわる動向について、適切な選択肢を選べ

    国連において、AIの軍事利用に関する規制が主張された

  • 8

    AI倫理の観点に基づいてインクルージョンの考え方として不適切な選択肢を選べ

    AIサービスの透明性を担保するために、予測出力だけではなく、AIによる意思決定の説明も合わせて、ユーザに提供すること

  • 9

    OpenAI社によって提供される文書生成AIサービスChstGPTを使用する上で、秘密情報の扱い方として不適切な選択肢を選べ

    APIを経由してChstGPTに入力した情報には、第三者がアクセスすることはないので、個人情報をはじめとする秘密情報の漏洩を防止する上で効果的といえる

  • 10

    生成AIサービスの提供企業の利用規約において、当社サービスの許容される使い方として、適切な選択肢を選べ

    冷え性に困っている利用者が、自身の参考のために冷え性の体質改善に関するアドバイスをAIに聞く

  • 11

    生成AIの正しい使い方として不適切な選択肢を選べ

    自社の技術に関する機密情報を含むソースコードを実行中にエラーが起きたため、そのソースコードをコビーし生成AIの入力欄に貼り付けて、エラーの要因を見つけてもらった後に、手動でそのエラーを元のソースコード上で修正する