論文の概要: Multilingual AMR Parsing with Noisy Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2109.15196v1
- Date: Thu, 30 Sep 2021 15:13:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 17:44:18.117585
- Title: Multilingual AMR Parsing with Noisy Knowledge Distillation
- Title(参考訳): 雑音を考慮した多言語AMR解析
- Authors: Deng Cai and Xin Li and Jackie Chun-Sing Ho and Lidong Bing and Wai
Lam
- Abstract要約: 知識蒸留の観点から多言語AMR解析について検討し,既存の英語を教師として利用して多言語AMRを学習し,改善することを目的とする。
蒸留成功の鍵はノイズ入出力と正確な出力である。
- 参考スコア(独自算出の注目度): 68.01173640691094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study multilingual AMR parsing from the perspective of knowledge
distillation, where the aim is to learn and improve a multilingual AMR parser
by using an existing English parser as its teacher. We constrain our
exploration in a strict multilingual setting: there is but one model to parse
all different languages including English. We identify that noisy input and
precise output are the key to successful distillation. Together with extensive
pre-training, we obtain an AMR parser whose performances surpass all previously
published results on four different foreign languages, including German,
Spanish, Italian, and Chinese, by large margins (up to 18.8 \textsc{Smatch}
points on Chinese and on average 11.3 \textsc{Smatch} points). Our parser also
achieves comparable performance on English to the latest state-of-the-art
English-only parser.
- Abstract(参考訳): 知識蒸留の観点から多言語AMRパーシングについて検討し,既存の英語パーサを教師として利用して多言語AMRパーサを学習し,改良することを目的とする。
私たちは厳格な多言語設定で探索を制限します。英語を含む全ての異なる言語を解析するモデルは1つしかありません。
蒸留の成功の鍵は,ノイズの入出力と正確な出力にあると考えられる。
広範な事前学習と合わせて、ドイツ語、スペイン語、イタリア語、中国語を含む4つの異なる外国語のすべての結果を大きなマージン(中国語および平均11.3のtextsc{Smatch}ポイントで最大18.8のtextsc{Smatch}ポイント)で上回るパフォーマンスを持つAMRパーサーを得る。
私たちのパーサーは、最新の最先端の英語専用パーサーと同等の性能を英語で達成しています。
関連論文リスト
- Should Cross-Lingual AMR Parsing go Meta? An Empirical Assessment of Meta-Learning and Joint Learning AMR Parsing [8.04933271357397]
言語間AMR解析は、トレーニングデータがソース言語でのみ利用できる場合、ターゲット言語でAMRグラフを予測するタスクである。
Langedijkら (2022) からインスピレーションを得て, 言語間AMR解析におけるメタラーニングの利用について検討した。
我々は,これらのモデルを$k$-shotシナリオで評価し,クロアチア語,ファルシ語,韓国語,中国語,フランス語での有効性を評価する。
論文 参考訳(メタデータ) (2024-10-04T12:24:02Z) - Breaking Language Barriers in Multilingual Mathematical Reasoning: Insights and Observations [59.056367787688146]
本稿では, マルチリンガル数学推論 (xMR) LLM の探索と学習の先駆者である。
我々は10の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
翻訳を利用して、10個の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
論文 参考訳(メタデータ) (2023-10-31T08:09:20Z) - Revisiting non-English Text Simplification: A Unified Multilingual
Benchmark [14.891068432456262]
本稿では,12言語に170万以上の複雑な文対を含む27のリソースの集合であるMultiSimベンチマークを紹介する。
事前学習した多言語言語モデルを用いたMultiSimを用いた実験により,非英語環境での多言語学習によるエキサイティングな性能向上が示された。
論文 参考訳(メタデータ) (2023-05-25T03:03:29Z) - Meta-Learning a Cross-lingual Manifold for Semantic Parsing [75.26271012018861]
新しい言語をサポートするためにセマンティックをローカライズするには、効果的な言語間一般化が必要である。
本稿では,言語間移動において,最大サンプル効率で注釈付きセマンティックを学習するための一階メタ学習アルゴリズムを提案する。
ATIS上の6つの言語にまたがる結果は、ステップの組み合わせによって、各新言語におけるソーストレーニングデータの10パーセントを正確なセマンティクスでサンプリングできることを示している。
論文 参考訳(メタデータ) (2022-09-26T10:42:17Z) - Making Better Use of Bilingual Information for Cross-Lingual AMR Parsing [88.08581016329398]
概念の誤認は、英語のトークンとAMRの概念の関連性が高いためである、と我々は主張する。
モデルがより正確な概念を予測できるように、バイリンガル入力、すなわち翻訳されたテキストと非英語のテキストを導入します。
論文 参考訳(メタデータ) (2021-06-09T05:14:54Z) - Translate, then Parse! A strong baseline for Cross-Lingual AMR Parsing [10.495114898741205]
我々は,各言語からの文をAMRに投影し,それらの意味的構造を捉えるモデルを開発した。
本稿では,単純な2ステップベースラインを再検討し,強力なNMTシステムと強力なAMRで拡張する。
実験の結果,T+Pはすべてのテスト言語で最新の最先端システムより優れていることがわかった。
論文 参考訳(メタデータ) (2021-06-08T17:52:48Z) - Bootstrapping Multilingual AMR with Contextual Word Alignments [15.588190959488538]
本研究では,En-glishと外国語トークン間の文脈的単語アライメントを用いた,テキストから英語へのAMRアライメントのための新しい手法を開発した。
このワードアライメントは弱教師付きであり、コンテキスト化されたXLM-Rワードの埋め込みに依存している。
私たちは、ドイツ語、イタリア語、スペイン語、中国語のベストパブリッシュ結果を上回る、非常に競争力のあるパフォーマンスを達成しています。
論文 参考訳(メタデータ) (2021-02-03T18:35:55Z) - Cross-lingual Machine Reading Comprehension with Language Branch
Knowledge Distillation [105.41167108465085]
言語間機械読解(CLMRC)は、ローソース言語に大規模なデータセットがないため、依然として難しい問題である。
本稿では,Language Branch Machine Reading (LBMRC) という新しい拡張手法を提案する。
LBMRCは、個々の言語に精通したMultiple Machine Read comprehension (MRC)モデルを訓練する。
複数の言語分岐モデルから全ての対象言語に対する単一モデルへのアマルガメート知識の多言語蒸留アプローチを考案する。
論文 参考訳(メタデータ) (2020-10-27T13:12:17Z) - Knowledge Distillation for Multilingual Unsupervised Neural Machine
Translation [61.88012735215636]
unsupervised neural machine translation (UNMT) は、最近、いくつかの言語対に対して顕著な結果を得た。
UNMTは単一の言語ペア間でのみ翻訳することができ、同時に複数の言語ペアに対して翻訳結果を生成することはできない。
本稿では,1つのエンコーダと1つのデコーダを用いて13言語間を翻訳する簡単な手法を実証的に紹介する。
論文 参考訳(メタデータ) (2020-04-21T17:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。