論文の概要: One Sentence, Two Embeddings: Contrastive Learning of Explicit and Implicit Semantic Representations
- arxiv url: http://arxiv.org/abs/2510.09293v1
- Date: Fri, 10 Oct 2025 11:36:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.802196
- Title: One Sentence, Two Embeddings: Contrastive Learning of Explicit and Implicit Semantic Representations
- Title(参考訳): 一つの文と2つの埋め込み:明示的および暗黙的意味表現の対照的な学習
- Authors: Kohei Oda, Po-Min Chuang, Kiyoaki Shirai, Natthawut Kertkeidkachorn,
- Abstract要約: 本稿では,各文に2つの埋め込みを割り当てる文埋め込み手法であるDualCSEを提案する。
実験により、DualCSEは暗黙の意味と暗黙の意味の両方を効果的にエンコードできることが示された。
- 参考スコア(独自算出の注目度): 6.888911557760832
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sentence embedding methods have made remarkable progress, yet they still struggle to capture the implicit semantics within sentences. This can be attributed to the inherent limitations of conventional sentence embedding methods that assign only a single vector per sentence. To overcome this limitation, we propose DualCSE, a sentence embedding method that assigns two embeddings to each sentence: one representing the explicit semantics and the other representing the implicit semantics. These embeddings coexist in the shared space, enabling the selection of the desired semantics for specific purposes such as information retrieval and text classification. Experimental results demonstrate that DualCSE can effectively encode both explicit and implicit meanings and improve the performance of the downstream task.
- Abstract(参考訳): 文埋め込み法は目覚ましい進歩を遂げているが、文中の暗黙的な意味を捉えるのに苦戦している。
これは、文ごとに1つのベクトルのみを割り当てる従来の文埋め込みメソッドの固有の制限に起因している。
この制限を克服するために,各文に2つの埋め込みを割り当てる文埋め込み手法であるDualCSEを提案する。
これらの埋め込みは共有空間に共存し、情報検索やテキスト分類といった特定の目的のために所望のセマンティクスを選択することができる。
実験の結果,DualCSEは暗黙の意味と暗黙の意味の両方を効果的にエンコードし,下流タスクの性能を向上させることができることがわかった。
関連論文リスト
- RankCSE: Unsupervised Sentence Representations Learning via Learning to
Rank [54.854714257687334]
本稿では,教師なし文表現学習のための新しい手法であるRangCSEを提案する。
コントラスト学習を伴うランキング一貫性とランキング蒸留を統一された枠組みに組み込む。
セマンティックテキスト類似性(STS)と転送タスク(TR)の両方について、広範な実験が実施されている。
論文 参考訳(メタデータ) (2023-05-26T08:27:07Z) - Bridging Continuous and Discrete Spaces: Interpretable Sentence
Representation Learning via Compositional Operations [80.45474362071236]
文の合成意味論が埋め込み空間における構成操作として直接反映できるかどうかは不明である。
文埋め込み学習のためのエンドツーエンドフレームワークであるInterSentを提案する。
論文 参考訳(メタデータ) (2023-05-24T00:44:49Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - SDA: Simple Discrete Augmentation for Contrastive Sentence Representation Learning [14.028140579482688]
SimCSEは、報告されているように、トリミング、単語削除、同義語置換といった個別の増強を驚くほど支配している。
我々は,句読点挿入,モーダル動詞,二重否定の3つの簡易かつ効果的な離散文拡張手法を開発した。
その結果,提案手法の優越性は一貫して向上した。
論文 参考訳(メタデータ) (2022-10-08T08:07:47Z) - DiffCSE: Difference-based Contrastive Learning for Sentence Embeddings [51.274478128525686]
DiffCSEは、文の埋め込みを学習するための教師なしのコントラスト学習フレームワークである。
実験の結果,教師なし文表現学習法では,DiffCSEは最先端の結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-04-21T17:32:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。