論文の概要: Multilingual Neural Machine Translation:Can Linguistic Hierarchies Help?
- arxiv url: http://arxiv.org/abs/2110.07816v1
- Date: Fri, 15 Oct 2021 02:31:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 12:12:00.574356
- Title: Multilingual Neural Machine Translation:Can Linguistic Hierarchies Help?
- Title(参考訳): 多言語ニューラルマシン翻訳:言語階層は役立つか?
- Authors: Fahimeh Saleh, Wray Buntine, Gholamreza Haffari, Lan Du
- Abstract要約: MNMT(Multilingual Neural Machine Translation)は、複数の言語間の翻訳をサポートする単一のNMTモデルを訓練する。
MNMTモデルの性能は、様々な言語から知識を伝達することで、負の転送によって翻訳性能が低下するので、訓練で使用される言語の種類に大きく依存する。
本稿では,MNMTにおける階層的知識蒸留(HKD)手法を提案する。
- 参考スコア(独自算出の注目度): 29.01386302441015
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multilingual Neural Machine Translation (MNMT) trains a single NMT model that
supports translation between multiple languages, rather than training separate
models for different languages. Learning a single model can enhance the
low-resource translation by leveraging data from multiple languages. However,
the performance of an MNMT model is highly dependent on the type of languages
used in training, as transferring knowledge from a diverse set of languages
degrades the translation performance due to negative transfer. In this paper,
we propose a Hierarchical Knowledge Distillation (HKD) approach for MNMT which
capitalises on language groups generated according to typological features and
phylogeny of languages to overcome the issue of negative transfer. HKD
generates a set of multilingual teacher-assistant models via a selective
knowledge distillation mechanism based on the language groups, and then distils
the ultimate multilingual model from those assistants in an adaptive way.
Experimental results derived from the TED dataset with 53 languages demonstrate
the effectiveness of our approach in avoiding the negative transfer effect in
MNMT, leading to an improved translation performance (about 1 BLEU score on
average) compared to strong baselines.
- Abstract(参考訳): MNMT(Multilingual Neural Machine Translation)は、複数の言語間の翻訳をサポートする単一のNMTモデルをトレーニングする。
単一モデルを学ぶことは、複数の言語からのデータを活用することで、低リソース翻訳を強化することができる。
しかし、MNMTモデルの性能は、様々な言語から知識を伝達することで、負の転送によって翻訳性能が低下するため、訓練で使用される言語の種類に大きく依存する。
本稿では,MNMTにおける階層的知識蒸留(HKD)手法を提案する。
HKDは、言語グループに基づく選択的な知識蒸留機構を介して、多言語教師支援モデルのセットを生成し、それらのアシスタントから究極の多言語モデルを適応的に除去する。
53言語を用いたTEDデータセットから得られた実験結果から,MNMTにおける負の伝達効果を回避する手法の有効性が示され,翻訳性能が向上した(平均1BLEUスコア)。
関連論文リスト
- Extending Multilingual Machine Translation through Imitation Learning [60.15671816513614]
Imit-MNMTは、タスクを専門家の行動を模倣する模倣学習プロセスとして扱う。
提案手法は,新言語と原言語の翻訳性能を大幅に向上させることを示す。
我々はまた、我々のアプローチがコピーとオフターゲットの問題を解決することができることを示した。
論文 参考訳(メタデータ) (2023-11-14T21:04:03Z) - Revisiting Machine Translation for Cross-lingual Classification [91.43729067874503]
この分野のほとんどの研究は、機械翻訳コンポーネントではなく多言語モデルに焦点を当てている。
より強力なMTシステムを用いて、原文のトレーニングと機械翻訳テキストの推論のミスマッチを緩和することにより、翻訳テストは以前想定していたよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-23T16:56:10Z) - Exploiting Multilingualism in Low-resource Neural Machine Translation
via Adversarial Learning [3.2258463207097017]
Generative Adversarial Networks (GAN) はニューラルマシン翻訳(NMT)に有望なアプローチを提供する
GANでは、バイリンガルモデルと同様に、マルチリンガルNTTはモデルトレーニング中に各文の参照翻訳を1つだけ考慮している。
本稿では,DAASI(Denoising Adversarial Auto-Encoder-based Sentence Interpolation)アプローチによる文計算を提案する。
論文 参考訳(メタデータ) (2023-03-31T12:34:14Z) - Improving Multilingual Neural Machine Translation System for Indic
Languages [0.0]
低リソース言語翻訳に関わる問題に対処する多言語ニューラルマシン翻訳(MNMT)システムを提案する。
提案モデルの実現には最先端のトランスフォーマーアーキテクチャを用いる。
大量のデータに対する試行は、従来のモデルよりもその優位性を明らかにしている。
論文 参考訳(メタデータ) (2022-09-27T09:51:56Z) - High-resource Language-specific Training for Multilingual Neural Machine
Translation [109.31892935605192]
負の干渉を軽減するために,HLT-MT(High-Resource Language-specific Training)を用いた多言語翻訳モデルを提案する。
具体的には、まずマルチ言語モデルを高リソースペアでトレーニングし、デコーダの上部にある言語固有のモジュールを選択する。
HLT-MTは、高リソース言語から低リソース言語への知識伝達のために、利用可能なすべてのコーパスでさらに訓練されている。
論文 参考訳(メタデータ) (2022-07-11T14:33:13Z) - Cross-lingual Machine Reading Comprehension with Language Branch
Knowledge Distillation [105.41167108465085]
言語間機械読解(CLMRC)は、ローソース言語に大規模なデータセットがないため、依然として難しい問題である。
本稿では,Language Branch Machine Reading (LBMRC) という新しい拡張手法を提案する。
LBMRCは、個々の言語に精通したMultiple Machine Read comprehension (MRC)モデルを訓練する。
複数の言語分岐モデルから全ての対象言語に対する単一モデルへのアマルガメート知識の多言語蒸留アプローチを考案する。
論文 参考訳(メタデータ) (2020-10-27T13:12:17Z) - Leveraging Monolingual Data with Self-Supervision for Multilingual
Neural Machine Translation [54.52971020087777]
モノリンガルデータを使用することで、マルチリンガルモデルにおける低リソース言語の翻訳品質が大幅に向上する。
自己監督は多言語モデルのゼロショット翻訳品質を改善する。
並列データやバックトランスレーションなしで、ro-en翻訳で最大33のBLEUを得る。
論文 参考訳(メタデータ) (2020-05-11T00:20:33Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。