論文の概要: Exploiting Multilingualism in Low-resource Neural Machine Translation
via Adversarial Learning
- arxiv url: http://arxiv.org/abs/2303.18011v1
- Date: Fri, 31 Mar 2023 12:34:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 14:03:59.272831
- Title: Exploiting Multilingualism in Low-resource Neural Machine Translation
via Adversarial Learning
- Title(参考訳): 逆学習による低リソースニューラルネットワーク翻訳における多言語化
- Authors: Amit Kumar, Ajay Pratap and Anil Kumar Singh
- Abstract要約: Generative Adversarial Networks (GAN) はニューラルマシン翻訳(NMT)に有望なアプローチを提供する
GANでは、バイリンガルモデルと同様に、マルチリンガルNTTはモデルトレーニング中に各文の参照翻訳を1つだけ考慮している。
本稿では,DAASI(Denoising Adversarial Auto-Encoder-based Sentence Interpolation)アプローチによる文計算を提案する。
- 参考スコア(独自算出の注目度): 3.2258463207097017
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative Adversarial Networks (GAN) offer a promising approach for Neural
Machine Translation (NMT). However, feeding multiple morphologically languages
into a single model during training reduces the NMT's performance. In GAN,
similar to bilingual models, multilingual NMT only considers one reference
translation for each sentence during model training. This single reference
translation limits the GAN model from learning sufficient information about the
source sentence representation. Thus, in this article, we propose Denoising
Adversarial Auto-encoder-based Sentence Interpolation (DAASI) approach to
perform sentence interpolation by learning the intermediate latent
representation of the source and target sentences of multilingual language
pairs. Apart from latent representation, we also use the Wasserstein-GAN
approach for the multilingual NMT model by incorporating the model generated
sentences of multiple languages for reward computation. This computed reward
optimizes the performance of the GAN-based multilingual model in an effective
manner. We demonstrate the experiments on low-resource language pairs and find
that our approach outperforms the existing state-of-the-art approaches for
multilingual NMT with a performance gain of up to 4 BLEU points. Moreover, we
use our trained model on zero-shot language pairs under an unsupervised
scenario and show the robustness of the proposed approach.
- Abstract(参考訳): Generative Adversarial Networks (GAN)はニューラルマシン翻訳(NMT)に有望なアプローチを提供する。
しかし、トレーニング中に複数の形態素言語を単一のモデルに供給することで、nmtの性能が低下する。
GANでは、バイリンガルモデルと同様に、マルチリンガルNTTはモデルトレーニング中に各文の参照翻訳を1つだけ考慮している。
この単一の参照翻訳は、GANモデルがソース文表現に関する十分な情報を学習することを制限する。
そこで本稿では,多言語対のソースとターゲット文の中間潜在表現を学習して文補間を行うDAASI(Denoising Adversarial Auto-Encoder-based Sentence Interpolation)アプローチを提案する。
潜在表現は別として,多言語nmtモデルに対するwasserstein-ganアプローチを用いて,報酬計算のために複数の言語のモデル生成文を組み込む。
この計算報酬は,GANに基づく多言語モデルの性能を効果的に最適化する。
低リソース言語ペアの実験を実証し,従来の多言語nmtにおける最先端のアプローチよりも,最大4 bleu 点の性能向上に優れることを示す。
さらに,ゼロショット言語対で学習したモデルを教師なしのシナリオで使用し,提案手法の頑健性を示す。
関連論文リスト
- Low-resource neural machine translation with morphological modeling [3.3721926640077804]
ニューラルマシン翻訳(NMT)における形態的モデリングは、オープン語彙機械翻訳を実現するための有望なアプローチである。
低リソース環境における複雑な形態をモデル化するためのフレームワークソリューションを提案する。
パブリックドメインのパラレルテキストを用いた英訳であるKinyarwandaについて,提案手法の評価を行った。
論文 参考訳(メタデータ) (2024-04-03T01:31:41Z) - Multilingual Neural Machine Translation:Can Linguistic Hierarchies Help? [29.01386302441015]
MNMT(Multilingual Neural Machine Translation)は、複数の言語間の翻訳をサポートする単一のNMTモデルを訓練する。
MNMTモデルの性能は、様々な言語から知識を伝達することで、負の転送によって翻訳性能が低下するので、訓練で使用される言語の種類に大きく依存する。
本稿では,MNMTにおける階層的知識蒸留(HKD)手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T02:31:48Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Distributionally Robust Multilingual Machine Translation [94.51866646879337]
本稿では,分散的ロバストな最適化に基づくMNMT(Multilingual Neural Machine Translation)の新しい学習目標を提案する。
この目的を,反復的最適応答方式を用いて,大規模翻訳コーパスに対して実用的に最適化する方法を示す。
本手法は,多対一の翻訳設定と多対多の翻訳設定の両方において,平均と言語毎のパフォーマンスにおいて,強いベースライン法より一貫して優れる。
論文 参考訳(メタデータ) (2021-09-09T03:48:35Z) - Improving the Lexical Ability of Pretrained Language Models for
Unsupervised Neural Machine Translation [127.81351683335143]
クロスリンガルプリトレーニングは、2つの言語の語彙的表現と高レベル表現を整列させるモデルを必要とする。
これまでの研究では、これは表現が十分に整合していないためです。
本稿では,語彙レベルの情報で事前学習するバイリンガルマスク言語モデルを,型レベルのクロスリンガルサブワード埋め込みを用いて強化する。
論文 参考訳(メタデータ) (2021-03-18T21:17:58Z) - Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language
Model [58.27176041092891]
最近の研究は、大規模未ラベルテキストに対する言語間言語モデルの事前学習が、大幅な性能向上をもたらすことを示唆している。
本稿では,絡み合った事前学習した言語間表現からドメイン固有の特徴を自動的に抽出する,教師なし特徴分解手法を提案する。
提案モデルでは、相互情報推定を利用して、言語間モデルによって計算された表現をドメイン不変部分とドメイン固有部分に分解する。
論文 参考訳(メタデータ) (2020-11-23T16:00:42Z) - Pre-training Multilingual Neural Machine Translation by Leveraging
Alignment Information [72.2412707779571]
mRASPは、汎用多言語ニューラルマシン翻訳モデルを事前訓練するためのアプローチである。
我々は,低,中,豊かな資源を含む多種多様な環境における42の翻訳方向の実験を行い,エキゾチックな言語対への変換を行った。
論文 参考訳(メタデータ) (2020-10-07T03:57:54Z) - Multi-task Learning for Multilingual Neural Machine Translation [32.81785430242313]
本稿では,bitextデータ上での翻訳タスクと,モノリンガルデータ上での2つの認知タスクを併用してモデルを学習するマルチタスク学習フレームワークを提案する。
提案手法は,高リソース言語と低リソース言語の両方の翻訳品質を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2020-10-06T06:54:12Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。