論文の概要: Breaking Down Multilingual Machine Translation
- arxiv url: http://arxiv.org/abs/2110.08130v1
- Date: Fri, 15 Oct 2021 14:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 13:24:28.046444
- Title: Breaking Down Multilingual Machine Translation
- Title(参考訳): 多言語機械翻訳の分解
- Authors: Ting-Rui Chiang, Yi-Pei Chen, Yi-Ting Yeh, Graham Neubig
- Abstract要約: マルチ言語学習は一般にエンコーダにとって有益であるが,ローソース言語(LRL)ではデコーダにのみ有益であることを示す。
LRLの多言語モデルと一対多モデルは、Aharoniらによって報告された最良の結果よりも優れています。
- 参考スコア(独自算出の注目度): 74.24795388967907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While multilingual training is now an essential ingredient in machine
translation (MT) systems, recent work has demonstrated that it has different
effects in different multilingual settings, such as many-to-one, one-to-many,
and many-to-many learning. These training settings expose the encoder and the
decoder in a machine translation model with different data distributions. In
this paper, we examine how different varieties of multilingual training
contribute to learning these two components of the MT model. Specifically, we
compare bilingual models with encoders and/or decoders initialized by
multilingual training. We show that multilingual training is beneficial to
encoders in general, while it only benefits decoders for low-resource languages
(LRLs). We further find the important attention heads for each language pair
and compare their correlations during inference. Our analysis sheds light on
how multilingual translation models work and also enables us to propose methods
to improve performance by training with highly related languages. Our
many-to-one models for high-resource languages and one-to-many models for LRL
outperform the best results reported by Aharoni et al. (2019).
- Abstract(参考訳): 現在、多言語学習は機械翻訳(MT)システムにおいて重要な要素となっているが、近年の研究により、多言語間、一対多、多対多学習など、多言語環境において異なる効果があることが示された。
これらのトレーニング設定は、異なるデータ分布を持つ機械翻訳モデルのエンコーダとデコーダを公開する。
本稿では,多言語訓練の異なる種類がmtモデルのこれら2つの構成要素の学習にどのように寄与するかを検討する。
具体的には,バイリンガルモデルとエンコーダおよび/またはデコーダを比較した。
マルチ言語学習は一般にエンコーダにとって有益であり,低リソース言語(LRL)のデコーダにのみ有益であることを示す。
さらに,各言語ペアに対する重要な注意点を見つけ,その相関関係を比較した。
本分析では,多言語翻訳モデルの動作方法に光を当て,高関係言語を用いた学習による性能向上手法を提案する。
Aharoni et al. (2019) が報告した最も優れた結果より, 高リソース言語のための多対一モデルとLRLのための一対多モデルの方が優れている。
関連論文リスト
- Multilingual Large Language Models and Curse of Multilinguality [4.096453902709292]
大規模言語モデル(LLM)は自然言語処理(NLP)の研究者や実践者の間で広く普及している。
本稿では,多言語LLMの展望を概観し,その技術的側面について概観する。
基礎となるアーキテクチャ、客観的関数、事前トレーニングされたデータソース、トークン化メソッドを説明します。
論文 参考訳(メタデータ) (2024-06-15T11:31:39Z) - Multilingual Multimodal Learning with Machine Translated Text [27.7207234512674]
英語のマルチモーダルデータの機械翻訳が、容易に利用できる多言語データの欠如を抑えるための効果的なプロキシとなるかどうかを考察する。
得られたデータセットからそのような翻訳を自動的に除去する2つの指標を提案する。
In experiment on five task across 20 languages in the IGLUE benchmark, we show that translated data can provide a useful signal for multilingual multimodal learning。
論文 参考訳(メタデータ) (2022-10-24T11:41:20Z) - Bitext Mining Using Distilled Sentence Representations for Low-Resource
Languages [12.00637655338665]
私たちは、非常に低リソースの言語を研究し、50のアフリカ言語を扱っています。
我々は文エンコーダ、マイニングビットクストを訓練し、NMTシステムのトレーニングによりビットクストを検証する。
これらの言語では、文エンコーダ、ビットクストをマイニングし、NMTシステムのトレーニングによってビットクストを検証する。
論文 参考訳(メタデータ) (2022-05-25T10:53:24Z) - Cross-Lingual Text Classification with Multilingual Distillation and
Zero-Shot-Aware Training [21.934439663979663]
多言語事前学習言語モデル(MPLM)に基づくマルチブランチ多言語言語モデル(MBLM)
教師学習フレームワークを用いた高性能単言語モデルからの知識の伝達に基づく方法
2つの言語横断型分類タスクの結果から,MPLMの教師付きデータのみを用いることで,教師付き性能とゼロショット性能が向上することが示された。
論文 参考訳(メタデータ) (2022-02-28T09:51:32Z) - How Good is Your Tokenizer? On the Monolingual Performance of
Multilingual Language Models [96.32118305166412]
本研究では,5つの単一言語下流タスクのセットに基づいて,事前学習可能な単言語モデルを持つ9種類の言語について検討した。
多言語モデルの語彙で適切に表現された言語は、単言語モデルよりも性能が著しく低下する。
論文 参考訳(メタデータ) (2020-12-31T14:11:00Z) - Cross-lingual Machine Reading Comprehension with Language Branch
Knowledge Distillation [105.41167108465085]
言語間機械読解(CLMRC)は、ローソース言語に大規模なデータセットがないため、依然として難しい問題である。
本稿では,Language Branch Machine Reading (LBMRC) という新しい拡張手法を提案する。
LBMRCは、個々の言語に精通したMultiple Machine Read comprehension (MRC)モデルを訓練する。
複数の言語分岐モデルから全ての対象言語に対する単一モデルへのアマルガメート知識の多言語蒸留アプローチを考案する。
論文 参考訳(メタデータ) (2020-10-27T13:12:17Z) - Beyond English-Centric Multilingual Machine Translation [74.21727842163068]
我々は真の多言語多言語翻訳モデルを作成し、100言語のいずれかのペア間で直接翻訳できる。
大規模なマイニングによって生成された教師付きデータで、数千の言語方向をカバーするトレーニングデータセットを構築し、オープンソースにしています。
WMTのベストシングルシステムに競争力を持たせながら、非英語の方向を直接翻訳する場合、非英語モデルに焦点をあてると10 BLEU以上のゲインが得られる。
論文 参考訳(メタデータ) (2020-10-21T17:01:23Z) - Multilingual Translation with Extensible Multilingual Pretraining and
Finetuning [77.33262578776291]
これまでの研究は、bitextで微調整することで機械翻訳システムを作成できることを実証してきた。
多言語翻訳モデルは多言語微調整により作成可能であることを示す。
事前訓練されたモデルは、性能を損なうことなく、追加の言語を組み込むように拡張できることを実証する。
論文 参考訳(メタデータ) (2020-08-02T05:36:55Z) - Balancing Training for Multilingual Neural Machine Translation [130.54253367251738]
多言語機械翻訳(MT)モデルは、複数の言語に翻訳/翻訳することができる。
標準的なプラクティスは、表現力を高めるために、リソースの少ない言語をアップサンプルすることである。
そこで本研究では,データスコアラによるトレーニングデータの重み付けを自動的に学習する手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T18:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。