論文の概要: Multiplex Word Embeddings for Selectional Preference Acquisition
- arxiv url: http://arxiv.org/abs/2001.02836v1
- Date: Thu, 9 Jan 2020 04:47:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 04:49:31.083047
- Title: Multiplex Word Embeddings for Selectional Preference Acquisition
- Title(参考訳): 選択選好獲得のための多重単語埋め込み
- Authors: Hongming Zhang, Jiaxin Bai, Yan Song, Kun Xu, Changlong Yu, Yangqiu
Song, Wilfred Ng and Dong Yu
- Abstract要約: 単語間の様々な関係に応じて容易に拡張できる多重単語埋め込みモデルを提案する。
本モデルでは,不必要なスパース性を導入することなく,関係の異なる単語を効果的に識別することができる。
- 参考スコア(独自算出の注目度): 70.33531759861111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional word embeddings represent words with fixed vectors, which are
usually trained based on co-occurrence patterns among words. In doing so,
however, the power of such representations is limited, where the same word
might be functionalized separately under different syntactic relations. To
address this limitation, one solution is to incorporate relational dependencies
of different words into their embeddings. Therefore, in this paper, we propose
a multiplex word embedding model, which can be easily extended according to
various relations among words. As a result, each word has a center embedding to
represent its overall semantics, and several relational embeddings to represent
its relational dependencies. Compared to existing models, our model can
effectively distinguish words with respect to different relations without
introducing unnecessary sparseness. Moreover, to accommodate various relations,
we use a small dimension for relational embeddings and our model is able to
keep their effectiveness. Experiments on selectional preference acquisition and
word similarity demonstrate the effectiveness of the proposed model, and a
further study of scalability also proves that our embeddings only need 1/20 of
the original embedding size to achieve better performance.
- Abstract(参考訳): 従来の単語埋め込みは、単語間の共起パターンに基づいて訓練される固定ベクトルを持つ単語を表す。
しかし、そのような表現の力は限られており、同じ単語を異なる構文関係の下で別々に機能化することができる。
この制限に対処する一つの解決策は、異なる単語の関連性依存関係を埋め込みに組み込むことである。
そこで本稿では,単語間の様々な関係に応じて容易に拡張可能な多重単語埋め込みモデルを提案する。
その結果、各単語は、その全体意味を表現する中心埋め込みと、その関係依存を表現するいくつかの関係埋め込みを持つ。
既存のモデルと比較して,不必要なスパース性を導入することなく,関係の異なる単語を効果的に識別することができる。
さらに, 様々な関係性に対応するため, 関係埋め込みに小さな次元を用いており, モデルの有効性を維持することができる。
選択選好獲得と単語の類似性に関する実験により,提案モデルの有効性が示され,さらにスケーラビリティのさらなる研究により,性能向上のためには組込みサイズが元の組込みサイズの1/20だけ必要であることが証明された。
関連論文リスト
- Bridging the Modality Gap: Dimension Information Alignment and Sparse Spatial Constraint for Image-Text Matching [10.709744162565274]
本稿では2つの側面からモダリティギャップを橋渡しするDIASと呼ばれる新しい手法を提案する。
この方法はFlickr30kとMSCOCOベンチマークで4.3%-10.2%のrSum改善を実現している。
論文 参考訳(メタデータ) (2024-10-22T09:37:29Z) - Meaning Representations from Trajectories in Autoregressive Models [106.63181745054571]
入力テキストを拡張可能なすべてのトラジェクトリの分布を考慮し,自己回帰言語モデルから意味表現を抽出する。
この戦略はプロンプトフリーであり、微調整は必要とせず、事前訓練された自己回帰モデルにも適用できる。
我々は,大規模なモデルから得られた表現が人間のアノテーションとよく一致し,意味的類似性タスクにおける他のゼロショットおよびプロンプトフリーメソッドよりも優れており,標準埋め込みが扱えないより複雑なエンタテインメントや包含タスクの解決に使用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-10-23T04:35:58Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Cross-Domain Few-Shot Relation Extraction via Representation Learning
and Domain Adaptation [1.1602089225841632]
短いショット関係抽出は、各関係にラベル付き文がほとんどない新しい関係を認識することを目的としている。
従来の距離法に基づく数ショット関係抽出アルゴリズムは、訓練された距離関数を用いて、クエリ文の埋め込みに埋め込まれた少数のラベル付き文によって生成されたプロトタイプを比較することにより、関係を識別する。
我々は,先行知識からより解釈可能で効率的なプロトタイプを学習し,様々な領域における新たな関係をより効果的に抽出するために,関係の本質的な意味論を学習することを提案する。
論文 参考訳(メタデータ) (2022-12-05T19:34:52Z) - The distribution of syntactic dependency distances [0.7614628596146599]
我々は,構文的依存距離の実際の分布のキャラクタリゼーションに寄与する。
ブレークポイント後の確率の減衰を許容する新しい二重指数モデルを提案する。
2つの登録モデルが、私たちが検討した20言語の中で、最も可能性の高いモデルであることが分かりました。
論文 参考訳(メタデータ) (2022-11-26T17:31:25Z) - LexSubCon: Integrating Knowledge from Lexical Resources into Contextual
Embeddings for Lexical Substitution [76.615287796753]
本稿では,コンテキスト埋め込みモデルに基づくエンドツーエンドの語彙置換フレームワークであるLexSubConを紹介する。
これは文脈情報と構造化語彙資源からの知識を組み合わせることで達成される。
我々の実験によると、LexSubConはLS07とCoInCoベンチマークデータセットで従来の最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-11T21:25:56Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - Multidirectional Associative Optimization of Function-Specific Word
Representations [86.87082468226387]
本稿では,関係する単語群間の関連を学習するためのニューラルネットワークフレームワークを提案する。
我々のモデルは結合関数固有の単語ベクトル空間を誘導し、例えば可塑性SVO合成のベクトルが近接して配置される。
このモデルは、共同空間においても単語群のメンバーシップに関する情報を保持し、SVO構造を前提とした複数のタスクに効果的に適用することができる。
論文 参考訳(メタデータ) (2020-05-11T17:07:20Z) - Comparative Analysis of Word Embeddings for Capturing Word Similarities [0.0]
分散言語表現は、様々な自然言語処理タスクにおいて、言語表現において最も広く使われている技術となっている。
ディープラーニング技術に基づく自然言語処理モデルのほとんどは、単語埋め込みと呼ばれる、すでに訓練済みの分散単語表現を使用している。
適切な単語の埋め込みを選択することは 複雑な作業です なぜなら、投影された埋め込み空間は 人間にとって直感的ではないからです
論文 参考訳(メタデータ) (2020-05-08T01:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。