論文の概要: SBERT studies Meaning Representations: Decomposing Sentence Embeddings
into Explainable AMR Meaning Features
- arxiv url: http://arxiv.org/abs/2206.07023v1
- Date: Tue, 14 Jun 2022 17:37:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 13:25:18.257611
- Title: SBERT studies Meaning Representations: Decomposing Sentence Embeddings
into Explainable AMR Meaning Features
- Title(参考訳): SBERTによる意味表現の研究:説明可能なAMR意味特徴への文埋め込みの分解
- Authors: Juri Opitz and Anette Frank
- Abstract要約: 非常に効果的な類似度メトリクスを作成しながら、評価の解釈可能な根拠を提供します。
まず、キーセマンティック・ファセットに対する文の類似性を測るAMRグラフメトリクスを選択します。
第二に、これらのメトリクスを用いてセマンティックな構造化文BERT埋め込みを誘導する。
- 参考スコア(独自算出の注目度): 22.8438857884398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Metrics for graph-based meaning representations (e.g., Abstract Meaning
Representation, AMR) can help us uncover key semantic aspects in which two
sentences are similar to each other. However, such metrics tend to be slow,
rely on parsers, and do not reach state-of-the-art performance when rating
sentence similarity. On the other hand, models based on large-pretrained
language models, such as S(entence)BERT, show high correlation to human
similarity ratings, but lack interpretability.
In this paper, we aim at the best of these two worlds, by creating similarity
metrics that are highly effective, while also providing an interpretable
rationale for their rating. Our approach works in two steps: We first select
AMR graph metrics that measure meaning similarity of sentences with respect to
key semantic facets, such as, i.a., semantic roles, negation, or
quantification. Second, we employ these metrics to induce Semantically
Structured Sentence BERT embeddings (S$^3$BERT), which are composed of
different meaning aspects captured in different sub-spaces. In our experimental
studies, we show that our approach offers a valuable balance between
performance and interpretability.
- Abstract(参考訳): グラフに基づく意味表現(例えば抽象的意味表現、AMR)のメトリクスは、2つの文が互いに類似しているキーセマンティックな側面を明らかにするのに役立つ。
しかし、そのような指標は遅く、パーサーに依存し、文章の類似性を評価する際に最先端のパフォーマンスに到達しない傾向にある。
一方、S(entence)BERTのような大規模事前学習言語モデルに基づくモデルは、人間の類似性評価と高い相関性を示すが、解釈可能性に欠ける。
本稿では,これらの2つの世界の最善をめざし,高い有効性を持つ類似度指標を作成し,その評価の理論的根拠を提供する。
我々はまず,意味的役割や否定,定量化といった重要な意味的側面に関して,文の類似度を測るAMRグラフメトリクスを選択する。
第二に、これらの指標を用いて意味的に構造化された文 bert 埋め込み (s$^3$bert) を誘導する(s$^3$bert)。
実験では,提案手法が性能と解釈可能性のバランスを保っていることを示す。
関連論文リスト
- Rematch: Robust and Efficient Matching of Local Knowledge Graphs to Improve Structural and Semantic Similarity [6.1980259703476674]
我々は,新しいAMR類似度指標であるrematchを導入し,RAREと呼ばれる構造類似度の評価を行った。
Rematchは構造的類似度で2位、第1位はSTS-BとSICK-Rのベンチマークで1~5ポイントのセマンティック類似度で2位である。
論文 参考訳(メタデータ) (2024-04-02T17:33:00Z) - Cobra Effect in Reference-Free Image Captioning Metrics [58.438648377314436]
視覚言語事前学習モデル(VLM)を活用した参照フリー手法の普及が出現している。
本稿では,基準自由度に欠陥があるかどうかを考察する。
GPT-4Vは生成した文を評価するための評価ツールであり,提案手法がSOTA(State-of-the-art)の性能を達成することを示す。
論文 参考訳(メタデータ) (2024-02-18T12:36:23Z) - AMR4NLI: Interpretable and robust NLI measures from semantic graphs [28.017617759762278]
自然言語推論は、ある前提が与えられた仮説を含むかどうかを問う。
セマンティック構造を比較し、セマンティックな埋め込みやセマンティックグラフの集合を含む前提と仮説を表現する。
本評価では,文脈的埋め込みと意味グラフの両方に価値を見出す。
論文 参考訳(メタデータ) (2023-06-01T17:39:40Z) - RankCSE: Unsupervised Sentence Representations Learning via Learning to
Rank [54.854714257687334]
本稿では,教師なし文表現学習のための新しい手法であるRangCSEを提案する。
コントラスト学習を伴うランキング一貫性とランキング蒸留を統一された枠組みに組み込む。
セマンティックテキスト類似性(STS)と転送タスク(TR)の両方について、広範な実験が実施されている。
論文 参考訳(メタデータ) (2023-05-26T08:27:07Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Retrofitting Multilingual Sentence Embeddings with Abstract Meaning
Representation [70.58243648754507]
抽象的意味表現(AMR)を用いた既存の多言語文の埋め込みを改善する新しい手法を提案する。
原文入力と比較すると、AMRは文の中核概念と関係を明確かつ曖昧に表す構造的意味表現である。
実験結果から,多言語文をAMRで埋め込むと,意味的類似性と伝達タスクの両方において,最先端の性能が向上することがわかった。
論文 参考訳(メタデータ) (2022-10-18T11:37:36Z) - Measuring Fine-Grained Semantic Equivalence with Abstract Meaning
Representation [9.666975331506812]
意味論的に等価な文を特定することは、多くのNLPタスクにとって重要である。
意味的同値性への最近のアプローチは「等価性」への緩やかな文レベルのアプローチを取る
抽象的意味表現グラフ構造を利用した意味等価性を特徴付ける新しい,より敏感な手法を提案する。
論文 参考訳(メタデータ) (2022-10-06T16:08:27Z) - Contextualized Semantic Distance between Highly Overlapped Texts [85.1541170468617]
テキスト編集や意味的類似性評価といった自然言語処理タスクにおいて、ペア化されたテキストに重複が頻繁に発生する。
本稿では,マスク・アンド・予測戦略を用いてこの問題に対処することを目的とする。
本稿では,最も長い単語列の単語を隣接する単語とみなし,その位置の分布を予測するためにマスク付き言語モデリング(MLM)を用いる。
セマンティックテキスト類似性の実験では、NDDは様々な意味的差異、特に高い重なり合うペアテキストに対してより敏感であることが示されている。
論文 参考訳(メタデータ) (2021-10-04T03:59:15Z) - Making Better Use of Bilingual Information for Cross-Lingual AMR Parsing [88.08581016329398]
概念の誤認は、英語のトークンとAMRの概念の関連性が高いためである、と我々は主張する。
モデルがより正確な概念を予測できるように、バイリンガル入力、すなわち翻訳されたテキストと非英語のテキストを導入します。
論文 参考訳(メタデータ) (2021-06-09T05:14:54Z) - AMR Similarity Metrics from Principles [21.915057426589748]
我々は、AMRのような意味表現と比較する指標を、研究者が原則的に評価できる基準を確立する。
偏差をわずかに意味することはより好意的であり、確立された全ての基準を満たすことを目標とする新しい計量 S$2$match を提案する。
論文 参考訳(メタデータ) (2020-01-29T16:19:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。