論文の概要: Sentence Analogies: Exploring Linguistic Relationships and Regularities
in Sentence Embeddings
- arxiv url: http://arxiv.org/abs/2003.04036v1
- Date: Mon, 9 Mar 2020 10:58:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 08:41:24.333648
- Title: Sentence Analogies: Exploring Linguistic Relationships and Regularities
in Sentence Embeddings
- Title(参考訳): 文アナロジー:文埋め込みにおける言語的関係と規則性を探る
- Authors: Xunjie Zhu, Gerard de Melo
- Abstract要約: 一般に使われている文ベクトル表現空間が、ある種類の正規性をどの程度反映しているかを考察する。
本実験では,BERTスタイルの文脈埋め込みを含む文埋め込み手法について検討した。
異なるモデルが、そのような規則性を反映する能力において、大きく異なることが分かる。
- 参考スコア(独自算出の注目度): 39.49185247953114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While important properties of word vector representations have been studied
extensively, far less is known about the properties of sentence vector
representations. Word vectors are often evaluated by assessing to what degree
they exhibit regularities with regard to relationships of the sort considered
in word analogies. In this paper, we investigate to what extent commonly used
sentence vector representation spaces as well reflect certain kinds of
regularities. We propose a number of schemes to induce evaluation data, based
on lexical analogy data as well as semantic relationships between sentences.
Our experiments consider a wide range of sentence embedding methods, including
ones based on BERT-style contextual embeddings. We find that different models
differ substantially in their ability to reflect such regularities.
- Abstract(参考訳): 単語ベクトル表現の重要な特性は広く研究されているが、文ベクトル表現の性質についてはあまり知られていない。
単語ベクトルはしばしば、単語アナロジーで考慮される種類の関係に関して正規性を示す程度を評価することによって評価される。
本稿では,一般的な文ベクトル表現空間が,ある種の規則性を反映する範囲について検討する。
本稿では,語彙類似データと文間の意味的関係に基づいて,評価データを誘導するスキームを提案する。
本実験では,BERTスタイルの文脈埋め込みを含む文埋め込み手法について検討した。
このような規則性を反映する能力において、異なるモデルが著しく異なることが分かる。
関連論文リスト
- The Impact of Word Splitting on the Semantic Content of Contextualized
Word Representations [3.4668147567693453]
分割される単語の表現の質は、しばしば、必ずしも、既知の単語の埋め込みの質よりも悪いとは限らない。
分析の結果, 単語の表現の質は, 単語の埋め込みよりも必ずしも悪くはないことが明らかとなった。
論文 参考訳(メタデータ) (2024-02-22T15:04:24Z) - Sub-Sentence Encoder: Contrastive Learning of Propositional Semantic
Representations [102.05351905494277]
サブ文エンコーダ(Sub-sentence encoder)は、テキストの微細な意味表現のためのコンテクスト埋め込みモデルである。
文エンコーダと比較して,サブ文エンコーダは推論コストと空間複雑さのレベルが同じであることを示す。
論文 参考訳(メタデータ) (2023-11-07T20:38:30Z) - A Comparative Study of Sentence Embedding Models for Assessing Semantic
Variation [0.0]
本稿では,複数の文献において,連続する文間の意味的類似性の時系列と対の文類似性の行列を用いた最近の文埋め込み法について比較する。
文の埋め込み手法のほとんどは、ある文書において意味的類似性の高相関パターンを推定するが、興味深い相違が見られる。
論文 参考訳(メタデータ) (2023-08-08T23:31:10Z) - Bridging Continuous and Discrete Spaces: Interpretable Sentence
Representation Learning via Compositional Operations [80.45474362071236]
文の合成意味論が埋め込み空間における構成操作として直接反映できるかどうかは不明である。
文埋め込み学習のためのエンドツーエンドフレームワークであるInterSentを提案する。
論文 参考訳(メタデータ) (2023-05-24T00:44:49Z) - An Investigation on Word Embedding Offset Clustering as Relationship
Classification [0.0]
本研究は,一対の単語ベクトル間の関係のベクトル表現を導出する試みである。
我々は6つのプーリング戦略を使ってベクトル関係を表現している。
本研究の目的は,単語の組込みに基づく教師なし手法により,一対の単語で表される関係の性質を識別することである。
論文 参考訳(メタデータ) (2023-05-07T13:03:17Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - Analogies minus analogy test: measuring regularities in word embeddings [16.17210734551503]
我々は古典的な算術語類似性テストを分析する。
標準的なアナロジーテストには欠陥があるが、いくつかの一般的な単語埋め込みは言語規則性を符号化している。
論文 参考訳(メタデータ) (2020-10-07T14:38:35Z) - A Comparative Study on Structural and Semantic Properties of Sentence
Embeddings [77.34726150561087]
本稿では,関係抽出に広く利用されている大規模データセットを用いた実験セットを提案する。
異なる埋め込み空間は、構造的および意味的特性に対して異なる強度を持つことを示す。
これらの結果は,埋め込み型関係抽出法の開発に有用な情報を提供する。
論文 参考訳(メタデータ) (2020-09-23T15:45:32Z) - Comparative Analysis of Word Embeddings for Capturing Word Similarities [0.0]
分散言語表現は、様々な自然言語処理タスクにおいて、言語表現において最も広く使われている技術となっている。
ディープラーニング技術に基づく自然言語処理モデルのほとんどは、単語埋め込みと呼ばれる、すでに訓練済みの分散単語表現を使用している。
適切な単語の埋め込みを選択することは 複雑な作業です なぜなら、投影された埋め込み空間は 人間にとって直感的ではないからです
論文 参考訳(メタデータ) (2020-05-08T01:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。