自然言語処理
- Encodingの歴史
- LV1 One-hot vector = 0,0,0,1,0,0,0 (only one 1 (hot))
- LV2 Tf-idf = appear frequently globally => not important & apper frequently locally => important
- LV3 Word2vec = x,x,x king - distance(male,female) (includes some essence tf-idf
- LV4 BERT
- BERT can’t understand he/she (pronouns)
- But, it 推測 from surrounding other words (word sense disambiguation)
- BERT can’t understand he/she (pronouns)
https://ishitonton.hatenablog.com/entry/2018/11/25/200332
- embeddingについて
やることの一部
ただの言語の処理だけではない
- 言語が持つ意味、知識、感情等、人間の知能に関わる深いところまで繋がる
イメージ以上に広い分野
方法論
構文解析
構文解析
#自然言語処理 意味を解釈する前段階 (というか第一歩) 句構造([[木]])、依存構造(関係図)などで表す https://www.sist.ac.jp/~kanakubo/research/naturallanguageprocessing/syntactic_analysis.html このように、複数の構造がありうるけど、大体の場合は人間の解釈は一つに落ち着く 人間の常識等が元になっているこの判断をどうコンピューターでやるか 的な性質の「構造」と的な性質の「意味」をどう両立、定式化するか 方法の一つ: シフト・還元法 文の最初から単語を2つづつみていって、その二つをくっつけるかどうか判定する ...
- 文章の構文を理解する技術
- 詳しく↑に書いた
- 文章/単語の意味を理解する技術
- 詳しく↑に書いた