論文の概要: Vec2Sent: Probing Sentence Embeddings with Natural Language Generation
- arxiv url: http://arxiv.org/abs/2011.00592v1
- Date: Sun, 1 Nov 2020 18:46:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:19:13.054657
- Title: Vec2Sent: Probing Sentence Embeddings with Natural Language Generation
- Title(参考訳): Vec2Sent: 自然言語生成による文埋め込みの検証
- Authors: Martin Kerscher and Steffen Eger
- Abstract要約: 我々は,ブラックボックス文の埋め込みを条件付きで解析し,その基礎となる個別文を検索する。
ダウンストリームタスクのパフォーマンスとよく相関していることを示す。
- 参考スコア(独自算出の注目度): 23.991156496925885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introspect black-box sentence embeddings by conditionally generating from
them with the objective to retrieve the underlying discrete sentence. We
perceive of this as a new unsupervised probing task and show that it correlates
well with downstream task performance. We also illustrate how the language
generated from different encoders differs. We apply our approach to generate
sentence analogies from sentence embeddings.
- Abstract(参考訳): 我々は,下位の離散文の検索を目的とした条件付き生成により,ブラックボックス文埋め込みをイントロスペクションする。
我々はこれを新しい教師なし探索タスクとして認識し、下流タスクのパフォーマンスとよく相関していることを示す。
また、異なるエンコーダから生成された言語の違いについても説明する。
文埋め込みから文類似を生成するために,本手法を適用した。
関連論文リスト
- DenoSent: A Denoising Objective for Self-Supervised Sentence
Representation Learning [59.4644086610381]
本稿では,他の視点,すなわち文内視点から継承する新たな認知的目的を提案する。
離散ノイズと連続ノイズの両方を導入することで、ノイズの多い文を生成し、モデルを元の形式に復元するように訓練する。
我々の経験的評価は,本手法が意味的テキスト類似性(STS)と幅広い伝達タスクの両面で競合する結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-24T17:48:45Z) - Bridging Continuous and Discrete Spaces: Interpretable Sentence
Representation Learning via Compositional Operations [80.45474362071236]
文の合成意味論が埋め込み空間における構成操作として直接反映できるかどうかは不明である。
文埋め込み学習のためのエンドツーエンドフレームワークであるInterSentを提案する。
論文 参考訳(メタデータ) (2023-05-24T00:44:49Z) - Sentence Embedding Leaks More Information than You Expect: Generative
Embedding Inversion Attack to Recover the Whole Sentence [37.63047048491312]
本稿では,文の埋め込みのみに基づいて入力シーケンスを再構築することを目的とした,ジェネレーティブな埋め込み反転攻撃(GEIA)を提案する。
言語モデルへのブラックボックスアクセスを考えると、文の埋め込みを初期トークンの表現として扱い、列を直接デコードするために強力なデコーダモデルを訓練または微調整する。
論文 参考訳(メタデータ) (2023-05-04T17:31:41Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Ranking-Enhanced Unsupervised Sentence Representation Learning [32.89057204258891]
文の意味は入力文と類似した最寄りの文によって決定されることを示す。
本稿では,新しい教師なし文エンコーダRancEncoderを提案する。
論文 参考訳(メタデータ) (2022-09-09T14:45:16Z) - DiffCSE: Difference-based Contrastive Learning for Sentence Embeddings [51.274478128525686]
DiffCSEは、文の埋め込みを学習するための教師なしのコントラスト学習フレームワークである。
実験の結果,教師なし文表現学習法では,DiffCSEは最先端の結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-04-21T17:32:01Z) - A Sentence is Worth 128 Pseudo Tokens: A Semantic-Aware Contrastive
Learning Framework for Sentence Embeddings [28.046786376565123]
Pseudo-Token BERT (PT-BERT) と呼ばれる文埋め込みのための意味認識型コントラスト学習フレームワークを提案する。
文長や構文などの表面的特徴の影響を排除しつつ、文の擬似トーケン空間(潜在意味空間)表現を利用する。
我々のモデルは6つの標準的な意味的テキスト類似性(STS)タスクにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-03-11T12:29:22Z) - Comparison and Combination of Sentence Embeddings Derived from Different
Supervision Signals [20.853681115929422]
自然言語推論(NLI)データセットと単語辞書からの定義文を用いて得られた2種類の文埋め込みに着目した。
2つの視点で分割したSTSデータを用いて,その性能を意味的テキスト類似性(STS)タスクと比較した。
また、これらの2種類の埋め込みを組み合わせることで、教師なしSTSタスクや下流タスクのそれぞれのモデルよりも大幅にパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2022-02-07T08:15:48Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z) - Toward Better Storylines with Sentence-Level Language Models [54.91921545103256]
本稿では,文章中の次の文を選択する文レベル言語モデルを提案する。
教師なしストーリークローゼタスクにおける最先端の精度によるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-11T16:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。