論文の概要: Learning Policies for Multilingual Training of Neural Machine
Translation Systems
- arxiv url: http://arxiv.org/abs/2103.06964v1
- Date: Thu, 11 Mar 2021 21:38:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 13:26:58.875948
- Title: Learning Policies for Multilingual Training of Neural Machine
Translation Systems
- Title(参考訳): ニューラルマシン翻訳システムの多言語学習のための学習方針
- Authors: Gaurav Kumar, Philipp Koehn, Sanjeev Khudanpur
- Abstract要約: 低リソースのMNMT(Multilingual Neural Machine Translation)は通常、1つ以上の言語ペアの翻訳性能を改善する。
本稿では,2つの簡単な検索ベースのカリキュラムを提案し,微調整などの既存手法と併用して翻訳性能を向上させる。
- 参考スコア(独自算出の注目度): 36.292020779233056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-resource Multilingual Neural Machine Translation (MNMT) is typically
tasked with improving the translation performance on one or more language pairs
with the aid of high-resource language pairs. In this paper, we propose two
simple search based curricula -- orderings of the multilingual training data --
which help improve translation performance in conjunction with existing
techniques such as fine-tuning. Additionally, we attempt to learn a curriculum
for MNMT from scratch jointly with the training of the translation system with
the aid of contextual multi-arm bandits. We show on the FLORES low-resource
translation dataset that these learned curricula can provide better starting
points for fine tuning and improve overall performance of the translation
system.
- Abstract(参考訳): 低リソースのMNMT(Multilingual Neural Machine Translation)は、1つ以上の言語ペアの翻訳性能を高リソースの言語ペアの助けを借りて向上させるのが一般的である。
本論文では,複数言語の学習データの順序付けという2つの単純な検索に基づくカリキュラムを提案し,微調整などの既存の手法と連動して翻訳性能を向上させる。
さらに,MNMTのカリキュラムをスクラッチから学習し,文脈的マルチアームバンディットの助けを借りて翻訳システムの訓練を行う。
FLORESの低リソース翻訳データセットにおいて、これらの学習カリキュラムは、微調整のためのより良い出発点を提供し、翻訳システム全体の性能を向上させることができることを示す。
関連論文リスト
- TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Relevance-guided Neural Machine Translation [5.691028372215281]
ニューラルネットワーク翻訳(NMT)のための説明可能性に基づく学習手法を提案する。
その結果,低リソース環境下でのトレーニングにおいて,本手法が有望であることが示唆された。
論文 参考訳(メタデータ) (2023-11-30T21:52:02Z) - Boosting Unsupervised Machine Translation with Pseudo-Parallel Data [2.900810893770134]
本研究では,モノリンガルコーパスから抽出した擬似並列文対と,モノリンガルコーパスから逆転写された合成文対を利用する訓練戦略を提案する。
裏書きされたデータのみに基づいてトレーニングされたベースラインに対して、最大14.5 BLEUポイント(ウクライナ語)の改善を達成しました。
論文 参考訳(メタデータ) (2023-10-22T10:57:12Z) - Translation-Enhanced Multilingual Text-to-Image Generation [61.41730893884428]
テキスト・ツー・イメージ・ジェネレーション(TTI)の研究は、現在でも主に英語に焦点を当てている。
そこで本研究では,多言語TTIとニューラルマシン翻訳(NMT)のブートストラップmTTIシステムへの応用について検討する。
我々は,mTTIフレームワーク内で多言語テキスト知識を重み付け,統合する新しいパラメータ効率アプローチであるEnsemble Adapter (EnsAd)を提案する。
論文 参考訳(メタデータ) (2023-05-30T17:03:52Z) - Building Multilingual Machine Translation Systems That Serve Arbitrary
X-Y Translations [75.73028056136778]
任意のX-Y翻訳方向に対応するMNMTシステムを実際に構築する方法を示す。
また,本提案手法を,実用的な展開シナリオに対応するため,極めて大規模なデータ設定で検討した。
論文 参考訳(メタデータ) (2022-06-30T02:18:15Z) - Extremely low-resource machine translation for closely related languages [0.0]
この研究は、エストニア語とフィンランド語というウラル語族の近縁言語に焦点を当てている。
多言語学習と合成コーパスにより,各言語対の翻訳品質が向上することがわかった。
転送学習と微調整は低リソースの機械翻訳に非常に効果的であり、最良の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-05-27T11:27:06Z) - Continual Mixed-Language Pre-Training for Extremely Low-Resource Neural
Machine Translation [53.22775597051498]
我々は,mbart を未熟な言語に効果的に適用するための,継続的な事前学習フレームワークを提案する。
その結果,mBARTベースラインの微調整性能を一貫して改善できることが示された。
私たちのアプローチは、両方の言語が元のmBARTの事前トレーニングで見られる翻訳ペアのパフォーマンスを高めます。
論文 参考訳(メタデータ) (2021-05-09T14:49:07Z) - Improving Multilingual Neural Machine Translation For Low-Resource
Languages: French-, English- Vietnamese [4.103253352106816]
本稿では,多言語mtシステムにおける希少な単語問題に対処するための2つの単純な戦略を提案する。
両言語対のバイリンガルベースラインシステムに対して,+1.62と+2.54のBLEU点が大幅に改善された。
論文 参考訳(メタデータ) (2020-12-16T04:43:43Z) - Multi-task Learning for Multilingual Neural Machine Translation [32.81785430242313]
本稿では,bitextデータ上での翻訳タスクと,モノリンガルデータ上での2つの認知タスクを併用してモデルを学習するマルチタスク学習フレームワークを提案する。
提案手法は,高リソース言語と低リソース言語の両方の翻訳品質を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2020-10-06T06:54:12Z) - Self-Supervised Representations Improve End-to-End Speech Translation [57.641761472372814]
自己教師付き事前学習機能により,翻訳性能が一貫的に向上することを示す。
言語間の変換は、チューニングの必要なく、あるいはほとんどチューニングすることなく、さまざまな言語に拡張することができる。
論文 参考訳(メタデータ) (2020-06-22T10:28:38Z) - Pre-training via Leveraging Assisting Languages and Data Selection for
Neural Machine Translation [49.51278300110449]
興味のある言語に対する単言語コーパスの不足を補うために,他の言語の単言語コーパスを活用することを提案する。
低リソースの日英ニューラルマシン翻訳(NMT)のケーススタディでは、中国語とフランス語のモノリンガルコーパスを活用することで、日本語と英語のモノリンガルコーパスの不足を克服できることが示された。
論文 参考訳(メタデータ) (2020-01-23T02:47:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。