論文の概要: Zero-shot Cross-lingual Transfer of Neural Machine Translation with
Multilingual Pretrained Encoders
- arxiv url: http://arxiv.org/abs/2104.08757v1
- Date: Sun, 18 Apr 2021 07:42:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:07:27.359756
- Title: Zero-shot Cross-lingual Transfer of Neural Machine Translation with
Multilingual Pretrained Encoders
- Title(参考訳): 多言語プリトレーニングエンコーダを用いた神経機械翻訳のゼロショットクロスリンガル伝達
- Authors: Guanhua Chen, Shuming Ma, Yun Chen, Li Dong, Dongdong Zhang, Jia Pan,
Wenping Wang, Furu Wei
- Abstract要約: 多言語プリトレーニング済みエンコーダによるNMTモデルのクロスリンガル転送を改善する方法は、未検討です。
このタスクのシンプルで効果的なモデルであるSixTを提案します。
私達のモデルはCRISSおよびm2m-100より多くの英語テストセットでよりよい性能を達成します。
- 参考スコア(独自算出の注目度): 74.89326277221072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous works mainly focus on improving cross-lingual transfer for NLU tasks
with multilingual pretrained encoder (MPE), or improving the translation
performance on NMT task with BERT. However, how to improve the cross-lingual
transfer of NMT model with multilingual pretrained encoder is under-explored.
In this paper, we focus on a zero-shot cross-lingual transfer task in NMT. In
this task, the NMT model is trained with one parallel dataset and an
off-the-shelf MPE, then is directly tested on zero-shot language pairs. We
propose SixT, a simple yet effective model for this task. The SixT model
leverages the MPE with a two-stage training schedule and gets further
improvement with a position disentangled encoder and a capacity-enhanced
decoder. The extensive experiments prove that SixT significantly improves the
translation quality of the unseen languages. With much less computation cost
and training data, our model achieves better performance on many-to-English
testsets than CRISS and m2m-100, two strong multilingual NMT baselines.
- Abstract(参考訳): 従来は多言語事前訓練エンコーダ(MPE)によるNLUタスクの言語間変換の改善や,BERTによるNMTタスクの翻訳性能の向上に重点が置かれていた。
しかし、多言語事前訓練エンコーダを用いたNMTモデルの言語間移動を改善する方法については、未検討である。
本稿では,NMTにおけるゼロショット言語間移動タスクに着目した。
このタスクでは、NMTモデルを1つの並列データセットと既製のMPPでトレーニングし、ゼロショット言語ペア上で直接テストする。
我々は,このタスクに対して単純かつ効果的なモデルであるsixtを提案する。
sixtモデルは、mpeを2段階のトレーニングスケジュールで活用し、位置ずれエンコーダとキャパシティエンハンスドデコーダによりさらに改善される。
広範な実験により、sixtは未使用言語の翻訳品質を大幅に向上させたことが証明された。
計算コストとトレーニングデータが少なくなると、CRISSとm2m-100よりも多くの英語テストセットの性能が向上する。
関連論文リスト
- EMMeTT: Efficient Multimodal Machine Translation Training [26.295981183965566]
自動音声翻訳(AST)を含む音声-LLMのマルチモーダル共同学習方式を提案する。
共同マルチモーダルトレーニングを扱うために,EMMeTTと呼ばれる新しいトレーニングフレームワークを提案する。
結果、多モーダル翻訳モデルでは、強いテキストと音声の翻訳結果を同時に生成する。
論文 参考訳(メタデータ) (2024-09-20T14:03:23Z) - Direct Neural Machine Translation with Task-level Mixture of Experts models [1.2338729811609357]
ダイレクト・ニューラル・マシン・トランスレーション (Direct Neural Machine Translation, NMT) は、2つの非英語言語間のテキストを翻訳する。
Task-level Mixture of Expert Model (Task-level MoE)は、多数の言語ペアに対して有望なNMT性能を示す。
論文 参考訳(メタデータ) (2023-10-18T18:19:45Z) - Self-Augmentation Improves Zero-Shot Cross-Lingual Transfer [92.80671770992572]
言語間移動は多言語NLPにおける中心的なタスクである。
このタスクの以前の作業では、並列コーパス、バイリンガル辞書、その他の注釈付きアライメントデータを使用していた。
ゼロショットの言語間移動を改善するため, 単純で効果的なSALT法を提案する。
論文 参考訳(メタデータ) (2023-09-19T19:30:56Z) - Parameter-Efficient Neural Reranking for Cross-Lingual and Multilingual
Retrieval [66.69799641522133]
最先端のニューラルランカーは、お腹が空いていることで悪名高い。
現在のアプローチでは、英語データに基づいて訓練されたローダを、多言語エンコーダを用いて他の言語や言語間設定に転送するのが一般的である。
本研究では,Sparse Fine-Tuning Masks (SFTMs) とAdapters (Adapters) の2つのパラメータ効率のアプローチにより,より軽量で効果的なゼロショット転送が可能となることを示す。
論文 参考訳(メタデータ) (2022-04-05T15:44:27Z) - Towards Making the Most of Multilingual Pretraining for Zero-Shot Neural
Machine Translation [74.158365847236]
SixT++は、100のソース言語をサポートする強力な多言語NMTモデルであるが、たった6つのソース言語からの並列データセットで一度トレーニングされている。
CRISSとm2m-100は、それぞれ7.2と5.0BLEUの2つの強い多言語NMTシステムより大幅に優れていた。
論文 参考訳(メタデータ) (2021-10-16T10:59:39Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Multi-task Learning for Multilingual Neural Machine Translation [32.81785430242313]
本稿では,bitextデータ上での翻訳タスクと,モノリンガルデータ上での2つの認知タスクを併用してモデルを学習するマルチタスク学習フレームワークを提案する。
提案手法は,高リソース言語と低リソース言語の両方の翻訳品質を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2020-10-06T06:54:12Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。