論文の概要: Smelting Gold and Silver for Improved Multilingual AMR-to-Text
Generation
- arxiv url: http://arxiv.org/abs/2109.03808v1
- Date: Wed, 8 Sep 2021 17:55:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 13:49:59.588735
- Title: Smelting Gold and Silver for Improved Multilingual AMR-to-Text
Generation
- Title(参考訳): マルチリンガルAMR-テキスト生成における金銀の溶融
- Authors: Leonardo F. R. Ribeiro, Jonas Pfeiffer, Yue Zhang and Iryna Gurevych
- Abstract要約: AMRアノテーションの自動生成技術について検討する。
我々のモデルは、生成した銀AMRを利用する銀(機械翻訳)文で金AMRを訓練した。
我々のモデルは、ドイツ、イタリア、スペイン、中国の芸術のこれまでの状態を大きく上回っている。
- 参考スコア(独自算出の注目度): 55.117031558677674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work on multilingual AMR-to-text generation has exclusively focused on
data augmentation strategies that utilize silver AMR. However, this assumes a
high quality of generated AMRs, potentially limiting the transferability to the
target task. In this paper, we investigate different techniques for
automatically generating AMR annotations, where we aim to study which source of
information yields better multilingual results. Our models trained on gold AMR
with silver (machine translated) sentences outperform approaches which leverage
generated silver AMR. We find that combining both complementary sources of
information further improves multilingual AMR-to-text generation. Our models
surpass the previous state of the art for German, Italian, Spanish, and Chinese
by a large margin.
- Abstract(参考訳): 近年の多言語AMR-to-text生成の研究は、銀AMRを利用するデータ拡張戦略にのみ焦点をあてている。
しかし、これは生成されたAMRの高品質を前提としており、ターゲットタスクへの転送可能性を制限する可能性がある。
本稿では,amrアノテーションを自動生成する様々な手法について検討し,どの情報源がより多言語的結果をもたらすかを検討する。
我々のモデルは、生成銀AMRを利用する銀(機械翻訳)文で金AMRを訓練した。
相補的な情報ソースの組み合わせにより、多言語AMR-テキスト生成がさらに向上することがわかった。
我々のモデルは、ドイツ、イタリア、スペイン、中国の芸術のこれまでの状態を大きく上回っている。
関連論文リスト
- Meta-Whisper: Speech-Based Meta-ICL for ASR on Low-Resource Languages [51.12146889808824]
Meta-Whisperは、低リソース言語の自動音声認識を改善するための新しいアプローチである。
これにより、Whisperは、広範囲の微調整をすることなく、馴染みのない言語で音声を認識できる能力を高める。
論文 参考訳(メタデータ) (2024-09-16T16:04:16Z) - High-Quality Data Augmentation for Low-Resource NMT: Combining a Translation Memory, a GAN Generator, and Filtering [1.8843687952462742]
本稿では,低リソース環境下でのニューラルネットワーク翻訳(NMT)を支援するために,ソース側でモノリンガルコーパスを利用する新しい手法を提案する。
この概念はGAN(Generative Adversarial Network)を用いて,低品質な合成モノリンガル翻訳とジェネレータとの干渉を緩和しつつ,識別器のトレーニングデータを増強する。
論文 参考訳(メタデータ) (2024-08-22T02:35:47Z) - (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [52.18246881218829]
本稿では,大言語モデル(LLM)をベースとした多エージェントフレームワークを,TransAgentsという企業として実装した。
本システムの有効性を評価するため,モノリンガル・ヒューマン・プライス(MHP)とバイリンガル・LLM・プライス(BLP)の2つの革新的な評価戦略を提案する。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Extrapolating Multilingual Understanding Models as Multilingual
Generators [82.1355802012414]
本稿では,多言語理解モデルに統一モデルを得るための生成能力を付与する手法について検討する。
少数の新しいパラメータを持つ多言語ジェネレータにエンコーダを適用するために,textbfSemantic-textbfGuided textbfAlignment-then-Denoising (SGA)アプローチを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:33:21Z) - A Survey : Neural Networks for AMR-to-Text [2.3924114046608627]
AMR-to-Textは、抽象的意味表現(AMR)グラフから文を生成することを目的とした、NLPコミュニティの重要なテクニックの1つである。
2013年にAMRが提案されて以来、AMR-to-Textの研究は、構造化データのテキストへの必須の分岐として、ますます広まりつつある。
論文 参考訳(メタデータ) (2022-06-15T07:20:28Z) - Maximum Bayes Smatch Ensemble Distillation for AMR Parsing [15.344108027018006]
本研究では,Smatchをベースとしたアンサンブル法とアンサンブル蒸留を併用することにより,銀データの還元率の低下を克服できることを示す。
我々は中国語、ドイツ語、イタリア語、スペイン語の言語間AMR解析のための新しい最先端技術を得た。
論文 参考訳(メタデータ) (2021-12-14T23:29:37Z) - Multilingual AMR Parsing with Noisy Knowledge Distillation [68.01173640691094]
知識蒸留の観点から多言語AMR解析について検討し,既存の英語を教師として利用して多言語AMRを学習し,改善することを目的とする。
蒸留成功の鍵はノイズ入出力と正確な出力である。
論文 参考訳(メタデータ) (2021-09-30T15:13:48Z) - Mr. TyDi: A Multi-lingual Benchmark for Dense Retrieval [51.004601358498135]
Mr. TyDiは、11の類型的多様言語における単言語検索のためのベンチマークデータセットである。
このリソースの目的は、非英語言語における高密度検索技術の研究を促進することである。
論文 参考訳(メタデータ) (2021-08-19T16:53:43Z) - Translate, then Parse! A strong baseline for Cross-Lingual AMR Parsing [10.495114898741205]
我々は,各言語からの文をAMRに投影し,それらの意味的構造を捉えるモデルを開発した。
本稿では,単純な2ステップベースラインを再検討し,強力なNMTシステムと強力なAMRで拡張する。
実験の結果,T+Pはすべてのテスト言語で最新の最先端システムより優れていることがわかった。
論文 参考訳(メタデータ) (2021-06-08T17:52:48Z) - Pushing the Limits of AMR Parsing with Self-Learning [24.998016423211375]
AMR解析性能を向上させるために, トレーニングモデルの適用方法を示す。
我々は、追加の人間のアノテーションがなければ、これらのテクニックが既にパフォーマンスを向上し、最先端の結果が得られることを示した。
論文 参考訳(メタデータ) (2020-10-20T23:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。