論文の概要: Towards Making the Most of Multilingual Pretraining for Zero-Shot Neural
Machine Translation
- arxiv url: http://arxiv.org/abs/2110.08547v1
- Date: Sat, 16 Oct 2021 10:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 15:59:04.332165
- Title: Towards Making the Most of Multilingual Pretraining for Zero-Shot Neural
Machine Translation
- Title(参考訳): ゼロショットニューラルマシン翻訳における多言語事前学習の活用に向けて
- Authors: Guanhua Chen, Shuming Ma, Yun Chen, Dongdong Zhang, Jia Pan, Wenping
Wang, Furu Wei
- Abstract要約: SixT++は、100のソース言語をサポートする強力な多言語NMTモデルであるが、たった6つのソース言語からの並列データセットで一度トレーニングされている。
CRISSとm2m-100は、それぞれ7.2と5.0BLEUの2つの強い多言語NMTシステムより大幅に優れていた。
- 参考スコア(独自算出の注目度): 74.158365847236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper demonstrates that multilingual pretraining, a proper fine-tuning
method and a large-scale parallel dataset from multiple auxiliary languages are
all critical for zero-shot translation, where the NMT model is tested on source
languages unseen during supervised training. Following this idea, we present
SixT++, a strong many-to-English NMT model that supports 100 source languages
but is trained once with a parallel dataset from only six source languages.
SixT++ initializes the decoder embedding and the full encoder with XLM-R large,
and then trains the encoder and decoder layers with a simple two-stage training
strategy. SixT++ achieves impressive performance on many-to-English
translation. It significantly outperforms CRISS and m2m-100, two strong
multilingual NMT systems, with an average gain of 7.2 and 5.0 BLEU
respectively. Additionally, SixT++ offers a set of model parameters that can be
further fine-tuned to develop unsupervised NMT models for low-resource
languages. With back-translation on monolingual data of low-resource language,
it outperforms all current state-of-the-art unsupervised methods on Nepali and
Sinhal for both translating into and from English.
- Abstract(参考訳): 本稿では,多言語事前学習,適切な微調整法,および複数の補助言語からの大規模並列データセットがゼロショット翻訳において重要であることを示す。
このアイデアに従い、100のソース言語をサポートするが、6つのソース言語からの並列データセットで一度トレーニングされる強力な多国間nmtモデルであるsixt++を提案する。
sixt++はデコーダ埋め込みとフルエンコーダをxlm-r largeで初期化し、エンコーダとデコーダ層を単純な2段階のトレーニング戦略でトレーニングする。
SixT++は、多英翻訳において素晴らしいパフォーマンスを実現している。
CRISSとm2m-100は、それぞれ7.2と5.0BLEUの2つの強い多言語NMTシステムより大幅に優れていた。
さらに、SixT++は低リソース言語のための教師なしNMTモデルを開発するために、さらに微調整できるモデルパラメータのセットを提供する。
低リソース言語の単言語データに対するバックトランスレーションにより、ネパール語とシンハル語の現在最先端の非教師なしメソッドを英語への翻訳と翻訳の両方で上回っている。
関連論文リスト
- Multilingual Bidirectional Unsupervised Translation Through Multilingual
Finetuning and Back-Translation [23.401781865904386]
本研究では,NMTモデルをトレーニングし,未知の言語を英語と英語の両方に翻訳する2段階のアプローチを提案する。
最初の段階では、事前訓練されたXLM-RおよびRoBERTa重みにエンコーダデコーダモデルを初期化し、40言語で並列データに対して多言語微調整を行う。
第2段階では、この一般化機能を活用して、単言語データセットから合成並列データを生成し、その後、連続した後方翻訳ラウンドで双方向に訓練する。
論文 参考訳(メタデータ) (2022-09-06T21:20:41Z) - Language Models are Good Translators [63.528370845657896]
単一言語モデル(LM4MT)は,強力なエンコーダデコーダNMTモデルと同等の性能が得られることを示す。
ピボットベースおよびゼロショット変換タスクの実験により、LM4MTはエンコーダ・デコーダのNMTモデルよりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2021-06-25T13:30:29Z) - Zero-shot Cross-lingual Transfer of Neural Machine Translation with
Multilingual Pretrained Encoders [74.89326277221072]
多言語プリトレーニング済みエンコーダによるNMTモデルのクロスリンガル転送を改善する方法は、未検討です。
このタスクのシンプルで効果的なモデルであるSixTを提案します。
私達のモデルはCRISSおよびm2m-100より多くの英語テストセットでよりよい性能を達成します。
論文 参考訳(メタデータ) (2021-04-18T07:42:45Z) - Enabling Zero-shot Multilingual Spoken Language Translation with
Language-Specific Encoders and Decoders [5.050654565113709]
Spoken Language Translationへの現在のエンドツーエンドアプローチは、限られたトレーニングリソースに依存しています。
提案手法は,言語固有のエンコーダデコーダに基づくMultiNMTアーキテクチャを多言語SLTのタスクに拡張する。
論文 参考訳(メタデータ) (2020-11-02T16:31:14Z) - Beyond English-Centric Multilingual Machine Translation [74.21727842163068]
我々は真の多言語多言語翻訳モデルを作成し、100言語のいずれかのペア間で直接翻訳できる。
大規模なマイニングによって生成された教師付きデータで、数千の言語方向をカバーするトレーニングデータセットを構築し、オープンソースにしています。
WMTのベストシングルシステムに競争力を持たせながら、非英語の方向を直接翻訳する場合、非英語モデルに焦点をあてると10 BLEU以上のゲインが得られる。
論文 参考訳(メタデータ) (2020-10-21T17:01:23Z) - Reusing a Pretrained Language Model on Languages with Limited Corpora
for Unsupervised NMT [129.99918589405675]
本稿では,オープンソース言語上でのみ事前訓練されたLMを再利用する効果的な手法を提案する。
モノリンガルLMは両言語で微調整され、UNMTモデルの初期化に使用される。
我々のアプローチであるRE-LMは、英語・マケドニア語(En-Mk)と英語・アルバニア語(En-Sq)の競合言語間事前学習モデル(XLM)より優れています。
論文 参考訳(メタデータ) (2020-09-16T11:37:10Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。