論文の概要: Translate, then Parse! A strong baseline for Cross-Lingual AMR Parsing
- arxiv url: http://arxiv.org/abs/2106.04565v1
- Date: Tue, 8 Jun 2021 17:52:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 16:20:42.052519
- Title: Translate, then Parse! A strong baseline for Cross-Lingual AMR Parsing
- Title(参考訳): 翻訳して、パース!
言語交叉型amr解析のための強いベースライン
- Authors: Sarah Uhrig, Yoalli Rezepka Garcia, Juri Opitz, Anette Frank
- Abstract要約: 我々は,各言語からの文をAMRに投影し,それらの意味的構造を捉えるモデルを開発した。
本稿では,単純な2ステップベースラインを再検討し,強力なNMTシステムと強力なAMRで拡張する。
実験の結果,T+Pはすべてのテスト言語で最新の最先端システムより優れていることがわかった。
- 参考スコア(独自算出の注目度): 10.495114898741205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In cross-lingual Abstract Meaning Representation (AMR) parsing, researchers
develop models that project sentences from various languages onto their AMRs to
capture their essential semantic structures: given a sentence in any language,
we aim to capture its core semantic content through concepts connected by
manifold types of semantic relations. Methods typically leverage large silver
training data to learn a single model that is able to project non-English
sentences to AMRs. However, we find that a simple baseline tends to be
over-looked: translating the sentences to English and projecting their AMR with
a monolingual AMR parser (translate+parse,T+P). In this paper, we revisit this
simple two-step base-line, and enhance it with a strong NMT system and a strong
AMR parser. Our experiments show that T+P outperforms a recent state-of-the-art
system across all tested languages: German, Italian, Spanish and Mandarin with
+14.6, +12.6, +14.3 and +16.0 Smatch points.
- Abstract(参考訳): 言語間の抽象的意味表現(AMR)解析において、研究者は、様々な言語からの文をAMRに投影し、それらの重要な意味構造を捉えるモデルを開発した。
メソッドは通常、大きな銀のトレーニングデータを利用して、非英語の文をAMRに投影できる単一のモデルを学ぶ。
しかし、単純なベースラインは見過ごされがちであり、文を英語に翻訳し、一言語性amrパーサ(translate+parse,t+p)でamrを投影する。
本稿では,この単純な2ステップベースラインを再検討し,強力なNMTシステムと強力なAMRパーサで拡張する。
実験の結果,T+Pは,ドイツ語,イタリア語,スペイン語,マンダリンを+14.6,+12.6,+14.3,+16.0のスマッチ点で比較した。
関連論文リスト
- Should Cross-Lingual AMR Parsing go Meta? An Empirical Assessment of Meta-Learning and Joint Learning AMR Parsing [8.04933271357397]
言語間AMR解析は、トレーニングデータがソース言語でのみ利用できる場合、ターゲット言語でAMRグラフを予測するタスクである。
Langedijkら (2022) からインスピレーションを得て, 言語間AMR解析におけるメタラーニングの利用について検討した。
我々は,これらのモデルを$k$-shotシナリオで評価し,クロアチア語,ファルシ語,韓国語,中国語,フランス語での有効性を評価する。
論文 参考訳(メタデータ) (2024-10-04T12:24:02Z) - MASSIVE Multilingual Abstract Meaning Representation: A Dataset and Baselines for Hallucination Detection [3.6811136816751513]
84,000以上のテキスト・ツー・グラフアノテーションを持つデータセットであるMASSIVE-AMRを紹介する。
AMRグラフは、50以上の言語にマッピングされた1,685の情報検索発話を示す。
その結果、構造化解析のためのLLMを用いた永続的な問題に光を当てた。
論文 参考訳(メタデータ) (2024-05-29T17:17:22Z) - "You Are An Expert Linguistic Annotator": Limits of LLMs as Analyzers of
Abstract Meaning Representation [60.863629647985526]
文意味構造の解析において, GPT-3, ChatGPT, および GPT-4 モデルの成功と限界について検討した。
モデルはAMRの基本形式を確実に再現でき、しばしばコアイベント、引数、修飾子構造をキャプチャできる。
全体としては,これらのモデルではセマンティック構造の側面を捉えることができるが,完全に正確なセマンティック解析や解析をサポートする能力には重要な制限が残されている。
論文 参考訳(メタデータ) (2023-10-26T21:47:59Z) - Retrofitting Multilingual Sentence Embeddings with Abstract Meaning
Representation [70.58243648754507]
抽象的意味表現(AMR)を用いた既存の多言語文の埋め込みを改善する新しい手法を提案する。
原文入力と比較すると、AMRは文の中核概念と関係を明確かつ曖昧に表す構造的意味表現である。
実験結果から,多言語文をAMRで埋め込むと,意味的類似性と伝達タスクの両方において,最先端の性能が向上することがわかった。
論文 参考訳(メタデータ) (2022-10-18T11:37:36Z) - Multilingual AMR Parsing with Noisy Knowledge Distillation [68.01173640691094]
知識蒸留の観点から多言語AMR解析について検討し,既存の英語を教師として利用して多言語AMRを学習し,改善することを目的とする。
蒸留成功の鍵はノイズ入出力と正確な出力である。
論文 参考訳(メタデータ) (2021-09-30T15:13:48Z) - Smelting Gold and Silver for Improved Multilingual AMR-to-Text
Generation [55.117031558677674]
AMRアノテーションの自動生成技術について検討する。
我々のモデルは、生成した銀AMRを利用する銀(機械翻訳)文で金AMRを訓練した。
我々のモデルは、ドイツ、イタリア、スペイン、中国の芸術のこれまでの状態を大きく上回っている。
論文 参考訳(メタデータ) (2021-09-08T17:55:46Z) - Making Better Use of Bilingual Information for Cross-Lingual AMR Parsing [88.08581016329398]
概念の誤認は、英語のトークンとAMRの概念の関連性が高いためである、と我々は主張する。
モデルがより正確な概念を予測できるように、バイリンガル入力、すなわち翻訳されたテキストと非英語のテキストを導入します。
論文 参考訳(メタデータ) (2021-06-09T05:14:54Z) - Pre-training Multilingual Neural Machine Translation by Leveraging
Alignment Information [72.2412707779571]
mRASPは、汎用多言語ニューラルマシン翻訳モデルを事前訓練するためのアプローチである。
我々は,低,中,豊かな資源を含む多種多様な環境における42の翻訳方向の実験を行い,エキゾチックな言語対への変換を行った。
論文 参考訳(メタデータ) (2020-10-07T03:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。