自然言語処理
問題一覧
1
自然言語処理
2
計算言語学
3
ASCII
4
JIS漢字
5
Unicode
6
UTF-8
7
辞書
8
言語知識
9
場の知識
10
世界知識
11
専門知識
12
システム辞書
13
専門辞書
14
利用者辞書
15
利用者辞書, 専門辞書, システム辞書
16
一般語
17
固有名詞
18
専門用語
19
シソーラス
20
コーパス
21
生コーパス
22
タグ付きコーパス
23
パラレルコーパス
24
代表性
25
言語モデル
26
マルコフモデル
27
n-gram言語モデル
28
2/4
29
P(私|文頭)
30
データスパースネスの問題
31
P, Det
32
I(x, y)≫0
33
コーパスから主語/動詞/目的語の3項組を抽出, 主語の名詞と動詞の相互情報量を計算, 目的語の名詞と動詞の相互情報量を計算, 同じ動詞の主語/目的語の位置にある名詞同士は類似性が高い, すべての動詞について類似度を合計
34
ラティス
35
形態素解析処理
36
制約適用
37
選好適用
38
重複 同時 決定論
39
語
40
制約処理 選好処理
41
処理する入力文字列の先頭を注目点とする, 単語辞書を引き、入力文字列の注目点から始まる可能な単語をすべて取り出し、ラティスに加える, ラティス中のそこを終点とする単語と連接するかを連接可否表を引いて確認し、連接可能な語の間にリンクを張る。どの語ともリンクが張られなかった語はラティスから取り除く, 注目点が入力文字列の末尾であれば、終了、そうでなければ、ラティス に含まれる単語の終点のうち、現在の注目点より右側で最も近い点を 新しい注目点とする
42
照応解決
43
共参照解決
44
修辞構造解析
45
参照表現
46
参照物
47
共参照
48
参照解決
49
照応解決
50
「ワイ・アンド・ティー」社長, 山田太郎さん, 山田さん, 自分
51
数や性等の一致の制約, 統語的な制約, 意味的な制約(選択制約)
52
近接性への選好, 統語役割に関する選好, 反復性への選好, 並行性への選好
53
照応解決の選好を反映して、先行詞の候補となる参照表現(や参照物)を順序づける。, 候補となる参照表現(や参照物)について、 その順序に従って制約を満たすかチェックし ていき、最初に制約を満たすものをその照 応表現の先行詞あるいは参照物とする。
54
参照解決
55
中心化理論
56
修辞構造理論
57
58
ブール法+tf*idf, 全文検索, フレーズ検索
59
60
– Sim(質問,文書1) = 11.0/( × ) = 0.416 – Sim(質問,文書2) = 19.0/( × ) = 0.718 – Sim(質問,文書3) = 23.0/( × ) = 0.869 – Sim(質問,文書4) = 15.0/( × ) = 0.500
61
検索された文書中の適合文書の数/検索された文書の数, 検索された文書中の適合文書の数/すべての適合文書の数, 2 P R / ( P + R )
62
63
文を単語並びと捉え、それぞれの単語を対応する目的言語の単語に置き換え、局所的にそれらを並び替えたのち、形態素レベルの調整をして翻訳結果とする, 原言語の文に構文解析、意味解析を行い、得られた構文構造、意味構造を目的言語の対応する構造に変換し、その構造に基づいて目的言語の文を生成する。構文レベルの変換を構文ト ランスファ、意味レベルの変換を意味トランスファと呼ぶ。, 言語によらない意味の表現が可能であり、このような意味の表現の枠組みを中間言語(interlingua)と呼び、それを介した翻訳を行い方式。多言語の翻訳に有利であるが、実際にはこのような言語の設計は困難である。
64
原文の適切性を判断するなど、原文を参照する前の段階で用いるものであり、どのような視点で書かれた文書であるかを判断するための要約, 原文の代わりに要約文を用いることができるものであり、原文の情報のある程度のものが含まれている要約
65
要約文書を構成する候補の選択として、各文に与えられた重要度を元に重要文を抽出する, 選択された重要文の候補から冗長なものとして類似する表現や文を削除する, 抽出元テキスト中での出現位置、含まれる単語の共通性等テキストの結束性を考慮した順序付けを行う, 不適切な代名詞や接続詞についての処理やより簡潔な表現への言いかえ等
66
質問応答
67
質問文解析 – ユーザが入力した質問を解析し、テキスト検索のためのキーワード集合を抽出 – ユーザが入力した質問から回答としてどのようなものを期待し ているかを解析(質問タイプの決定), テキスト検索 – 解析されたキーワード集合を用いて、回答を含んでいると思われるテキストを検索, 回答候補抽出 – 検索されたテキストに対し、固有表現抽出技術を利用し、質問タイプに適合する回答候補を抽出, 回答選択 – 抽出された回答候補からより適切な回答を絞り込み、必要に 応じて優先順位順に並べ替えながら回答を選択する
68
依存構造解析
69
70
節点
71
弧
72
文の構成要素である語の意味を明らかにする – 文中の各単語がどの意味で用いられているのかを 明らかにする, それらを、構文構造を参照することで構造化し ていく – 構文構造中の構文関係を参考にし、意味構造を決 定していく(直接意味構造を決めていく場合もある), 構造化の際に、それらの間の意味関係を明ら かにする(構文関係から意味関係へ) – 構文関係と単語の持っている意味関係を元に意味 関係を決定する
73
意味役割
74
意味役割付与
75
選択制限
76
格フレーム
77
Cosine(W1, W2) = (2*1+3*4+1*2) / (√14 * √21) = 16 / (3.75 * 4.58) = 0.932 Jaccard(W1, W2) = (1+3+1) / (2+4+2) = 0.625 Dice(W1, W2) = 2*(1+3+1) / (3+7+3) = 0.769
78
類義 対義 包摂 部分全体
79
WordNet
80
適合文書集合, 不適合文書集合, 質問(のベクトル), 文書(のベクトル)
81
原言語 目的言語
vocabulary1
vocabulary1
yhujikolp qawsedrftg · 64問 · 2年前vocabulary1
vocabulary1
64問 • 2年前vocabulary1
vocabulary1
yhujikolp qawsedrftg · 40問 · 2年前vocabulary1
vocabulary1
40問 • 2年前vocabulary2
vocabulary2
yhujikolp qawsedrftg · 20問 · 2年前vocabulary2
vocabulary2
20問 • 2年前オペシス
オペシス
yhujikolp qawsedrftg · 9問 · 2年前オペシス
オペシス
9問 • 2年前病気とは
病気とは
yhujikolp qawsedrftg · 10問 · 2年前病気とは
病気とは
10問 • 2年前問題1
問題1
yhujikolp qawsedrftg · 7問 · 2年前問題1
問題1
7問 • 2年前総合
総合
yhujikolp qawsedrftg · 800問 · 2年前総合
総合
800問 • 2年前1001-2000
1001-2000
yhujikolp qawsedrftg · 999問 · 2年前1001-2000
1001-2000
999問 • 2年前2001-3000
2001-3000
yhujikolp qawsedrftg · 999問 · 2年前2001-3000
2001-3000
999問 • 2年前1001-2000
1001-2000
yhujikolp qawsedrftg · 999問 · 2年前1001-2000
1001-2000
999問 • 2年前2001-3000
2001-3000
yhujikolp qawsedrftg · 999問 · 2年前2001-3000
2001-3000
999問 • 2年前感性工学
感性工学
yhujikolp qawsedrftg · 14問 · 2年前感性工学
感性工学
14問 • 2年前tmpフォルダ
tmpフォルダ
yhujikolp qawsedrftg · 520問 · 2年前tmpフォルダ
tmpフォルダ
520問 • 2年前学習済みフォルダ
学習済みフォルダ
yhujikolp qawsedrftg · 640問 · 2年前学習済みフォルダ
学習済みフォルダ
640問 • 2年前未学習フォルダ
未学習フォルダ
yhujikolp qawsedrftg · 199問 · 2年前未学習フォルダ
未学習フォルダ
199問 • 2年前学習済みフォルダ 4
学習済みフォルダ 4
yhujikolp qawsedrftg · 120問 · 2年前学習済みフォルダ 4
学習済みフォルダ 4
120問 • 2年前学習済みフォルダ 2
学習済みフォルダ 2
yhujikolp qawsedrftg · 40問 · 2年前学習済みフォルダ 2
学習済みフォルダ 2
40問 • 2年前未学習
未学習
yhujikolp qawsedrftg · 560問 · 2年前未学習
未学習
560問 • 2年前学習済みフォルダ 1
学習済みフォルダ 1
yhujikolp qawsedrftg · 80問 · 2年前学習済みフォルダ 1
学習済みフォルダ 1
80問 • 2年前学習済み
学習済み
yhujikolp qawsedrftg · 640問 · 2年前学習済み
学習済み
640問 • 2年前復習4
復習4
yhujikolp qawsedrftg · 23問 · 2年前復習4
復習4
23問 • 2年前復習16
復習16
yhujikolp qawsedrftg · 15問 · 2年前復習16
復習16
15問 • 2年前学習済みフォルダ1
学習済みフォルダ1
yhujikolp qawsedrftg · 40問 · 2年前学習済みフォルダ1
学習済みフォルダ1
40問 • 2年前問題
問題
yhujikolp qawsedrftg · 5問 · 1年前問題
問題
5問 • 1年前パターン認識
パターン認識
yhujikolp qawsedrftg · 36問 · 1年前パターン認識
パターン認識
36問 • 1年前計算機構成論
計算機構成論
yhujikolp qawsedrftg · 21問 · 1年前計算機構成論
計算機構成論
21問 • 1年前新単語 動詞
新単語 動詞
yhujikolp qawsedrftg · 25問 · 1年前新単語 動詞
新単語 動詞
25問 • 1年前使いたい単語
使いたい単語
yhujikolp qawsedrftg · 33問 · 1年前使いたい単語
使いたい単語
33問 • 1年前問題一覧
1
自然言語処理
2
計算言語学
3
ASCII
4
JIS漢字
5
Unicode
6
UTF-8
7
辞書
8
言語知識
9
場の知識
10
世界知識
11
専門知識
12
システム辞書
13
専門辞書
14
利用者辞書
15
利用者辞書, 専門辞書, システム辞書
16
一般語
17
固有名詞
18
専門用語
19
シソーラス
20
コーパス
21
生コーパス
22
タグ付きコーパス
23
パラレルコーパス
24
代表性
25
言語モデル
26
マルコフモデル
27
n-gram言語モデル
28
2/4
29
P(私|文頭)
30
データスパースネスの問題
31
P, Det
32
I(x, y)≫0
33
コーパスから主語/動詞/目的語の3項組を抽出, 主語の名詞と動詞の相互情報量を計算, 目的語の名詞と動詞の相互情報量を計算, 同じ動詞の主語/目的語の位置にある名詞同士は類似性が高い, すべての動詞について類似度を合計
34
ラティス
35
形態素解析処理
36
制約適用
37
選好適用
38
重複 同時 決定論
39
語
40
制約処理 選好処理
41
処理する入力文字列の先頭を注目点とする, 単語辞書を引き、入力文字列の注目点から始まる可能な単語をすべて取り出し、ラティスに加える, ラティス中のそこを終点とする単語と連接するかを連接可否表を引いて確認し、連接可能な語の間にリンクを張る。どの語ともリンクが張られなかった語はラティスから取り除く, 注目点が入力文字列の末尾であれば、終了、そうでなければ、ラティス に含まれる単語の終点のうち、現在の注目点より右側で最も近い点を 新しい注目点とする
42
照応解決
43
共参照解決
44
修辞構造解析
45
参照表現
46
参照物
47
共参照
48
参照解決
49
照応解決
50
「ワイ・アンド・ティー」社長, 山田太郎さん, 山田さん, 自分
51
数や性等の一致の制約, 統語的な制約, 意味的な制約(選択制約)
52
近接性への選好, 統語役割に関する選好, 反復性への選好, 並行性への選好
53
照応解決の選好を反映して、先行詞の候補となる参照表現(や参照物)を順序づける。, 候補となる参照表現(や参照物)について、 その順序に従って制約を満たすかチェックし ていき、最初に制約を満たすものをその照 応表現の先行詞あるいは参照物とする。
54
参照解決
55
中心化理論
56
修辞構造理論
57
58
ブール法+tf*idf, 全文検索, フレーズ検索
59
60
– Sim(質問,文書1) = 11.0/( × ) = 0.416 – Sim(質問,文書2) = 19.0/( × ) = 0.718 – Sim(質問,文書3) = 23.0/( × ) = 0.869 – Sim(質問,文書4) = 15.0/( × ) = 0.500
61
検索された文書中の適合文書の数/検索された文書の数, 検索された文書中の適合文書の数/すべての適合文書の数, 2 P R / ( P + R )
62
63
文を単語並びと捉え、それぞれの単語を対応する目的言語の単語に置き換え、局所的にそれらを並び替えたのち、形態素レベルの調整をして翻訳結果とする, 原言語の文に構文解析、意味解析を行い、得られた構文構造、意味構造を目的言語の対応する構造に変換し、その構造に基づいて目的言語の文を生成する。構文レベルの変換を構文ト ランスファ、意味レベルの変換を意味トランスファと呼ぶ。, 言語によらない意味の表現が可能であり、このような意味の表現の枠組みを中間言語(interlingua)と呼び、それを介した翻訳を行い方式。多言語の翻訳に有利であるが、実際にはこのような言語の設計は困難である。
64
原文の適切性を判断するなど、原文を参照する前の段階で用いるものであり、どのような視点で書かれた文書であるかを判断するための要約, 原文の代わりに要約文を用いることができるものであり、原文の情報のある程度のものが含まれている要約
65
要約文書を構成する候補の選択として、各文に与えられた重要度を元に重要文を抽出する, 選択された重要文の候補から冗長なものとして類似する表現や文を削除する, 抽出元テキスト中での出現位置、含まれる単語の共通性等テキストの結束性を考慮した順序付けを行う, 不適切な代名詞や接続詞についての処理やより簡潔な表現への言いかえ等
66
質問応答
67
質問文解析 – ユーザが入力した質問を解析し、テキスト検索のためのキーワード集合を抽出 – ユーザが入力した質問から回答としてどのようなものを期待し ているかを解析(質問タイプの決定), テキスト検索 – 解析されたキーワード集合を用いて、回答を含んでいると思われるテキストを検索, 回答候補抽出 – 検索されたテキストに対し、固有表現抽出技術を利用し、質問タイプに適合する回答候補を抽出, 回答選択 – 抽出された回答候補からより適切な回答を絞り込み、必要に 応じて優先順位順に並べ替えながら回答を選択する
68
依存構造解析
69
70
節点
71
弧
72
文の構成要素である語の意味を明らかにする – 文中の各単語がどの意味で用いられているのかを 明らかにする, それらを、構文構造を参照することで構造化し ていく – 構文構造中の構文関係を参考にし、意味構造を決 定していく(直接意味構造を決めていく場合もある), 構造化の際に、それらの間の意味関係を明ら かにする(構文関係から意味関係へ) – 構文関係と単語の持っている意味関係を元に意味 関係を決定する
73
意味役割
74
意味役割付与
75
選択制限
76
格フレーム
77
Cosine(W1, W2) = (2*1+3*4+1*2) / (√14 * √21) = 16 / (3.75 * 4.58) = 0.932 Jaccard(W1, W2) = (1+3+1) / (2+4+2) = 0.625 Dice(W1, W2) = 2*(1+3+1) / (3+7+3) = 0.769
78
類義 対義 包摂 部分全体
79
WordNet
80
適合文書集合, 不適合文書集合, 質問(のベクトル), 文書(のベクトル)
81
原言語 目的言語