論文の概要: Measuring Fine-Grained Semantic Equivalence with Abstract Meaning
Representation
- arxiv url: http://arxiv.org/abs/2210.03018v1
- Date: Thu, 6 Oct 2022 16:08:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 16:37:50.644119
- Title: Measuring Fine-Grained Semantic Equivalence with Abstract Meaning
Representation
- Title(参考訳): 抽象的意味表現による微粒化セマンティック等価性の測定
- Authors: Shira Wein, Zhuxin Wang, Nathan Schneider
- Abstract要約: 意味論的に等価な文を特定することは、多くのNLPタスクにとって重要である。
意味的同値性への最近のアプローチは「等価性」への緩やかな文レベルのアプローチを取る
抽象的意味表現グラフ構造を利用した意味等価性を特徴付ける新しい,より敏感な手法を提案する。
- 参考スコア(独自算出の注目度): 9.666975331506812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying semantically equivalent sentences is important for many
cross-lingual and mono-lingual NLP tasks. Current approaches to semantic
equivalence take a loose, sentence-level approach to "equivalence," despite
previous evidence that fine-grained differences and implicit content have an
effect on human understanding (Roth and Anthonio, 2021) and system performance
(Briakou and Carpuat, 2021). In this work, we introduce a novel, more sensitive
method of characterizing semantic equivalence that leverages Abstract Meaning
Representation graph structures. We develop an approach, which can be used with
either gold or automatic AMR annotations, and demonstrate that our solution is
in fact finer-grained than existing corpus filtering methods and more accurate
at predicting strictly equivalent sentences than existing semantic similarity
metrics. We suggest that our finer-grained measure of semantic equivalence
could limit the workload in the task of human post-edited machine translation
and in human evaluation of sentence similarity.
- Abstract(参考訳): 意味論的に等価な文を特定することは、多くの言語間および単言語NLPタスクにおいて重要である。
現在の意味同値に対するアプローチは、粒度の違いと暗黙的な内容が人間の理解(roth and anthonio, 2021)とシステムパフォーマンス(briakou and carpuat, 2021)に影響を与えているという以前の証拠にもかかわらず、ゆるやかに文レベルでの「等価性」へのアプローチを取る。
本稿では,抽象的意味表現グラフ構造を利用した意味同値性を特徴付ける,新しい,より繊細な手法を提案する。
我々は、金または自動AMRアノテーションで使用できるアプローチを開発し、我々のソリューションが既存のコーパスフィルタリング手法よりも細粒度であり、既存の意味的類似度指標よりも厳密に等価な文を予測できることを実証する。
意味同値のきめ細かい尺度は,人間のポスト編集機械翻訳作業や文の類似性評価における作業負荷を制限できる可能性が示唆された。
関連論文リスト
- DenoSent: A Denoising Objective for Self-Supervised Sentence
Representation Learning [59.4644086610381]
本稿では,他の視点,すなわち文内視点から継承する新たな認知的目的を提案する。
離散ノイズと連続ノイズの両方を導入することで、ノイズの多い文を生成し、モデルを元の形式に復元するように訓練する。
我々の経験的評価は,本手法が意味的テキスト類似性(STS)と幅広い伝達タスクの両面で競合する結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-24T17:48:45Z) - RankCSE: Unsupervised Sentence Representations Learning via Learning to
Rank [54.854714257687334]
本稿では,教師なし文表現学習のための新しい手法であるRangCSEを提案する。
コントラスト学習を伴うランキング一貫性とランキング蒸留を統一された枠組みに組み込む。
セマンティックテキスト類似性(STS)と転送タスク(TR)の両方について、広範な実験が実施されている。
論文 参考訳(メタデータ) (2023-05-26T08:27:07Z) - Towards Unsupervised Recognition of Token-level Semantic Differences in
Related Documents [61.63208012250885]
意味的差異をトークンレベルの回帰タスクとして認識する。
マスク付き言語モデルに依存する3つの教師なしアプローチについて検討する。
その結果,単語アライメントと文レベルのコントラスト学習に基づくアプローチは,ゴールドラベルと強い相関関係があることが示唆された。
論文 参考訳(メタデータ) (2023-05-22T17:58:04Z) - Unsupervised Semantic Variation Prediction using the Distribution of
Sibling Embeddings [17.803726860514193]
単語の意味的変化の検出は,様々なNLPアプリケーションにおいて重要な課題である。
意味表現だけではそのような意味的バリエーションを正確に捉えることはできないと我々は主張する。
対象単語の文脈的埋め込みのコホート全体を利用する手法を提案する。
論文 参考訳(メタデータ) (2023-05-15T13:58:21Z) - Semantic-aware Contrastive Learning for More Accurate Semantic Parsing [32.74456368167872]
そこで本研究では,意味表現の微粒化を学習できる意味認識型コントラスト学習アルゴリズムを提案する。
2つの標準データセットの実験により、我々の手法はMLEベースラインよりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2023-01-19T07:04:32Z) - Retrofitting Multilingual Sentence Embeddings with Abstract Meaning
Representation [70.58243648754507]
抽象的意味表現(AMR)を用いた既存の多言語文の埋め込みを改善する新しい手法を提案する。
原文入力と比較すると、AMRは文の中核概念と関係を明確かつ曖昧に表す構造的意味表現である。
実験結果から,多言語文をAMRで埋め込むと,意味的類似性と伝達タスクの両方において,最先端の性能が向上することがわかった。
論文 参考訳(メタデータ) (2022-10-18T11:37:36Z) - SBERT studies Meaning Representations: Decomposing Sentence Embeddings
into Explainable AMR Meaning Features [22.8438857884398]
非常に効果的な類似度メトリクスを作成しながら、評価の解釈可能な根拠を提供します。
まず、キーセマンティック・ファセットに対する文の類似性を測るAMRグラフメトリクスを選択します。
第二に、これらのメトリクスを用いてセマンティックな構造化文BERT埋め込みを誘導する。
論文 参考訳(メタデータ) (2022-06-14T17:37:18Z) - Contextualized Semantic Distance between Highly Overlapped Texts [85.1541170468617]
テキスト編集や意味的類似性評価といった自然言語処理タスクにおいて、ペア化されたテキストに重複が頻繁に発生する。
本稿では,マスク・アンド・予測戦略を用いてこの問題に対処することを目的とする。
本稿では,最も長い単語列の単語を隣接する単語とみなし,その位置の分布を予測するためにマスク付き言語モデリング(MLM)を用いる。
セマンティックテキスト類似性の実験では、NDDは様々な意味的差異、特に高い重なり合うペアテキストに対してより敏感であることが示されている。
論文 参考訳(メタデータ) (2021-10-04T03:59:15Z) - Rethinking Crowd Sourcing for Semantic Similarity [0.13999481573773073]
本稿では,クラウドソース型セマンティックラベリングにおけるあいまいさについて検討する。
これは、セマンティックな類似性をバイナリカテゴリとして扱うアノテーションが、ラベル付けにおいて最も重要な役割を担っていることを示している。
論文 参考訳(メタデータ) (2021-09-24T13:57:30Z) - On the Sentence Embeddings from Pre-trained Language Models [78.45172445684126]
本稿では,BERT埋め込みにおける意味情報が完全に活用されていないことを論じる。
BERTは常に文の非滑らかな異方性意味空間を誘導し,その意味的類似性を損なう。
本稿では,非教師対象で学習した正規化フローにより,異方性文の埋め込み分布を滑らかで等方性ガウス分布に変換することを提案する。
論文 参考訳(メタデータ) (2020-11-02T13:14:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。