論文の概要: Knowledge Distillation for Multilingual Unsupervised Neural Machine
Translation
- arxiv url: http://arxiv.org/abs/2004.10171v1
- Date: Tue, 21 Apr 2020 17:26:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 06:56:26.032138
- Title: Knowledge Distillation for Multilingual Unsupervised Neural Machine
Translation
- Title(参考訳): 多言語非教師付きニューラルマシン翻訳のための知識蒸留
- Authors: Haipeng Sun, Rui Wang, Kehai Chen, Masao Utiyama, Eiichiro Sumita, and
Tiejun Zhao
- Abstract要約: unsupervised neural machine translation (UNMT) は、最近、いくつかの言語対に対して顕著な結果を得た。
UNMTは単一の言語ペア間でのみ翻訳することができ、同時に複数の言語ペアに対して翻訳結果を生成することはできない。
本稿では,1つのエンコーダと1つのデコーダを用いて13言語間を翻訳する簡単な手法を実証的に紹介する。
- 参考スコア(独自算出の注目度): 61.88012735215636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised neural machine translation (UNMT) has recently achieved
remarkable results for several language pairs. However, it can only translate
between a single language pair and cannot produce translation results for
multiple language pairs at the same time. That is, research on multilingual
UNMT has been limited. In this paper, we empirically introduce a simple method
to translate between thirteen languages using a single encoder and a single
decoder, making use of multilingual data to improve UNMT for all language
pairs. On the basis of the empirical findings, we propose two knowledge
distillation methods to further enhance multilingual UNMT performance. Our
experiments on a dataset with English translated to and from twelve other
languages (including three language families and six language branches) show
remarkable results, surpassing strong unsupervised individual baselines while
achieving promising performance between non-English language pairs in zero-shot
translation scenarios and alleviating poor performance in low-resource language
pairs.
- Abstract(参考訳): unsupervised neural machine translation (unmt)は、最近いくつかの言語ペアで顕著な結果を得ている。
しかし、単一の言語ペア間でのみ翻訳することができ、同時に複数の言語ペアに対して翻訳結果を生成することはできない。
つまり、多言語UNMTの研究は限られている。
本論文では,1つのエンコーダと1つのデコーダを用いて13の言語を翻訳する簡単な手法を実証的に導入し,多言語データを用いてすべての言語ペアに対してUNMTを改善する。
実験結果に基づき,多言語unmtの性能をさらに高めるための2つの知識蒸留法を提案する。
英語を翻訳したデータセット(3つの言語ファミリーと6つの言語ブランチを含む)による実験は、教師なし言語ペア間の有望なパフォーマンスを達成しつつ、低リソース言語ペアにおける性能の低下を軽減しつつ、強い教師なしの個人ベースラインを越え、顕著な結果を示した。
関連論文リスト
- Decoupled Vocabulary Learning Enables Zero-Shot Translation from Unseen Languages [55.157295899188476]
ニューラルマシン翻訳システムは、異なる言語の文を共通の表現空間にマッピングすることを学ぶ。
本研究では、この仮説を未知の言語からのゼロショット翻訳により検証する。
この設定により、全く見えない言語からのゼロショット翻訳が可能になることを実証する。
論文 参考訳(メタデータ) (2024-08-05T07:58:58Z) - Towards the Next 1000 Languages in Multilingual Machine Translation:
Exploring the Synergy Between Supervised and Self-Supervised Learning [48.15259834021655]
数百の言語をカバーする多言語機械翻訳モデルを構築するための実践的なアプローチを提案する。
私たちは、異なる言語ペアのデータ可用性に応じて、教師付きと自己監督型の目的の混合を使用します。
この2つのトレーニングパラダイム間の相乗効果により、ゼロリソース設定で高品質な翻訳を生成できることを実証する。
論文 参考訳(メタデータ) (2022-01-09T23:36:44Z) - Cross-lingual Machine Reading Comprehension with Language Branch
Knowledge Distillation [105.41167108465085]
言語間機械読解(CLMRC)は、ローソース言語に大規模なデータセットがないため、依然として難しい問題である。
本稿では,Language Branch Machine Reading (LBMRC) という新しい拡張手法を提案する。
LBMRCは、個々の言語に精通したMultiple Machine Read comprehension (MRC)モデルを訓練する。
複数の言語分岐モデルから全ての対象言語に対する単一モデルへのアマルガメート知識の多言語蒸留アプローチを考案する。
論文 参考訳(メタデータ) (2020-10-27T13:12:17Z) - Leveraging Monolingual Data with Self-Supervision for Multilingual
Neural Machine Translation [54.52971020087777]
モノリンガルデータを使用することで、マルチリンガルモデルにおける低リソース言語の翻訳品質が大幅に向上する。
自己監督は多言語モデルのゼロショット翻訳品質を改善する。
並列データやバックトランスレーションなしで、ro-en翻訳で最大33のBLEUを得る。
論文 参考訳(メタデータ) (2020-05-11T00:20:33Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。