469 単語埋め込みモデル

可変長の単語を固定長のベクトルで表現する手法。

単語埋め込み(Word Embedding)(通称 word2vec)とは,ある語彙の単語やフレーズ群を分散表現(Distributed Representation)へと写像するニューラルネットを学習する特徴選択手法のこと,あるいは,その学習された(狭いローカル窓内の)ニューラル言語モデルによる埋め込みである隠れ変数の空間自体をさす。