論文の概要: Retrofitting Multilingual Sentence Embeddings with Abstract Meaning
Representation
- arxiv url: http://arxiv.org/abs/2210.09773v1
- Date: Tue, 18 Oct 2022 11:37:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 13:19:52.206669
- Title: Retrofitting Multilingual Sentence Embeddings with Abstract Meaning
Representation
- Title(参考訳): 抽象的意味表現による多言語文埋め込みの再構築
- Authors: Deng Cai and Xin Li and Jackie Chun-Sing Ho and Lidong Bing and Wai
Lam
- Abstract要約: 抽象的意味表現(AMR)を用いた既存の多言語文の埋め込みを改善する新しい手法を提案する。
原文入力と比較すると、AMRは文の中核概念と関係を明確かつ曖昧に表す構造的意味表現である。
実験結果から,多言語文をAMRで埋め込むと,意味的類似性と伝達タスクの両方において,最先端の性能が向上することがわかった。
- 参考スコア(独自算出の注目度): 70.58243648754507
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new method to improve existing multilingual sentence
embeddings with Abstract Meaning Representation (AMR). Compared with the
original textual input, AMR is a structured semantic representation that
presents the core concepts and relations in a sentence explicitly and
unambiguously. It also helps reduce surface variations across different
expressions and languages. Unlike most prior work that only evaluates the
ability to measure semantic similarity, we present a thorough evaluation of
existing multilingual sentence embeddings and our improved versions, which
include a collection of five transfer tasks in different downstream
applications. Experiment results show that retrofitting multilingual sentence
embeddings with AMR leads to better state-of-the-art performance on both
semantic textual similarity and transfer tasks. Our codebase and evaluation
scripts can be found at \url{https://github.com/jcyk/MSE-AMR}.
- Abstract(参考訳): 本稿では,抽象的意味表現(AMR)を用いて,既存の多言語文の埋め込みを改善する新しい手法を提案する。
原文入力と比較すると、AMRは文の中核概念と関係を明確かつ曖昧に表す構造的意味表現である。
また、さまざまな表現や言語の表面のバリエーションを減らすのにも役立ちます。
意味的類似性を測定する能力のみを評価するほとんどの先行研究とは異なり、既存の多言語文埋め込みと、異なる下流アプリケーションにおける5つの転送タスクの集合を含む改良されたバージョンについて徹底的に評価する。
実験結果から,多言語文をAMRで埋め込むと,意味的テキストの類似性と伝達タスクの両方において,最先端の性能が向上することがわかった。
コードベースと評価スクリプトは \url{https://github.com/jcyk/MSE-AMR} で確認できます。
関連論文リスト
- MINERS: Multilingual Language Models as Semantic Retrievers [23.686762008696547]
本稿では,意味検索タスクにおける多言語言語モデルの有効性を評価するためのベンチマークであるMINERSを紹介する。
我々は,200以上の多言語にわたるサンプルの検索において,LMの堅牢性を評価する包括的なフレームワークを構築した。
以上の結果から,意味論的に類似した埋め込みを検索することで,最先端のアプローチと競合する性能が得られることが示された。
論文 参考訳(メタデータ) (2024-06-11T16:26:18Z) - Spatial Semantic Recurrent Mining for Referring Image Segmentation [63.34997546393106]
高品質なクロスモーダリティ融合を実現するために,Stextsuperscript2RMを提案する。
これは、言語特徴の分散、空間的意味的再帰的分離、パーセマンティック・セマンティック・バランシングという三部作の作業戦略に従う。
提案手法は他の最先端アルゴリズムに対して好適に機能する。
論文 参考訳(メタデータ) (2024-05-15T00:17:48Z) - Optimal Transport Posterior Alignment for Cross-lingual Semantic Parsing [68.47787275021567]
言語間のセマンティックパーシングは、高いソース言語(例えば英語)から少ないトレーニングデータを持つ低リソース言語へのパーシング能力を伝達する。
そこで本稿では,最適輸送を用いた係り受け変数間の言語間相違を明示的に最小化することで,言語間セマンティック解析のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T04:52:31Z) - RankCSE: Unsupervised Sentence Representations Learning via Learning to
Rank [54.854714257687334]
本稿では,教師なし文表現学習のための新しい手法であるRangCSEを提案する。
コントラスト学習を伴うランキング一貫性とランキング蒸留を統一された枠組みに組み込む。
セマンティックテキスト類似性(STS)と転送タスク(TR)の両方について、広範な実験が実施されている。
論文 参考訳(メタデータ) (2023-05-26T08:27:07Z) - Lost in Translationese? Reducing Translation Effect Using Abstract
Meaning Representation [11.358350306918027]
抽象的意味表現(AMR)は、翻訳文中の翻訳文の量を減らし、インターリンガとして使用できると論じる。
英語の翻訳をAMRに解析し、そのAMRからテキストを生成することで、その結果は元々の英語のテキストとよりよく似ている。
この研究は、テキストの翻訳を減らし、言語間言語としてのAMRの有用性を強調している。
論文 参考訳(メタデータ) (2023-04-23T00:04:14Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - SBERT studies Meaning Representations: Decomposing Sentence Embeddings
into Explainable AMR Meaning Features [22.8438857884398]
非常に効果的な類似度メトリクスを作成しながら、評価の解釈可能な根拠を提供します。
まず、キーセマンティック・ファセットに対する文の類似性を測るAMRグラフメトリクスを選択します。
第二に、これらのメトリクスを用いてセマンティックな構造化文BERT埋め込みを誘導する。
論文 参考訳(メタデータ) (2022-06-14T17:37:18Z) - Transition-based Abstract Meaning Representation Parsing with Contextual
Embeddings [0.0]
本研究では,意味解析のタスクにおいて,言語モデルと記号意味論の定式化という,言語の意味への最も成功したルートを2つ組み合わせる手法について検討する。
本稿では,事前学習した文脈認識単語の埋め込み(BERTやRoBERTaなど)を解析問題に組み込むことの有用性について検討する。
論文 参考訳(メタデータ) (2022-06-13T15:05:24Z) - Contextualized Semantic Distance between Highly Overlapped Texts [85.1541170468617]
テキスト編集や意味的類似性評価といった自然言語処理タスクにおいて、ペア化されたテキストに重複が頻繁に発生する。
本稿では,マスク・アンド・予測戦略を用いてこの問題に対処することを目的とする。
本稿では,最も長い単語列の単語を隣接する単語とみなし,その位置の分布を予測するためにマスク付き言語モデリング(MLM)を用いる。
セマンティックテキスト類似性の実験では、NDDは様々な意味的差異、特に高い重なり合うペアテキストに対してより敏感であることが示されている。
論文 参考訳(メタデータ) (2021-10-04T03:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。