論文の概要: Building Multilingual Machine Translation Systems That Serve Arbitrary
X-Y Translations
- arxiv url: http://arxiv.org/abs/2206.14982v1
- Date: Thu, 30 Jun 2022 02:18:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 13:38:00.511780
- Title: Building Multilingual Machine Translation Systems That Serve Arbitrary
X-Y Translations
- Title(参考訳): 任意X-Y翻訳を実現する多言語機械翻訳システムの構築
- Authors: Akiko Eriguchi, Shufang Xie, Tao Qin, Hany Hassan Awadalla
- Abstract要約: 任意のX-Y翻訳方向に対応するMNMTシステムを実際に構築する方法を示す。
また,本提案手法を,実用的な展開シナリオに対応するため,極めて大規模なデータ設定で検討した。
- 参考スコア(独自算出の注目度): 75.73028056136778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multilingual Neural Machine Translation (MNMT) enables one system to
translate sentences from multiple source languages to multiple target
languages, greatly reducing deployment costs compared with conventional
bilingual systems. The MNMT training benefit, however, is often limited to
many-to-one directions. The model suffers from poor performance in one-to-many
and many-to-many with zero-shot setup. To address this issue, this paper
discusses how to practically build MNMT systems that serve arbitrary X-Y
translation directions while leveraging multilinguality with a two-stage
training strategy of pretraining and finetuning. Experimenting with the WMT'21
multilingual translation task, we demonstrate that our systems outperform the
conventional baselines of direct bilingual models and pivot translation models
for most directions, averagely giving +6.0 and +4.1 BLEU, without the need for
architecture change or extra data collection. Moreover, we also examine our
proposed approach in an extremely large-scale data setting to accommodate
practical deployment scenarios.
- Abstract(参考訳): 多言語ニューラルマシン翻訳(mnmt)は、1つのシステムが複数のソース言語から複数のターゲット言語への文の翻訳を可能にし、従来のバイリンガルシステムに比べてデプロイコストを大幅に削減する。
しかし、mnmt訓練の利点は多対一の方向に限られることが多い。
このモデルは、一対多で多対多でゼロショットのセットアップでパフォーマンスが悪い。
本稿では,事前学習と微調整の2段階の学習戦略を多言語化しつつ,任意のx-y変換方向に対応するmnmtシステムを実際に構築する方法について述べる。
WMT'21多言語翻訳タスクを用いて、我々のシステムは、アーキテクチャの変更や余分なデータ収集を必要とせずに、平均で+6.0および+4.1BLEUを与える、直接バイリンガルモデルとピボット翻訳モデルの従来のベースラインよりも優れていることを示した。
さらに,本提案手法は,実用的な展開シナリオに対応するために,非常に大規模なデータセットで検討する。
関連論文リスト
- CLIPTrans: Transferring Visual Knowledge with Pre-trained Models for
Multimodal Machine Translation [31.911593690549633]
マルチモーダル機械翻訳(MMT)システムは、視覚的知識でニューラルネットワーク翻訳(NMT)を強化する。
注釈付き多言語視覚言語データが不足しているため、従来の作業は、強力なMTTモデルをゼロからトレーニングする際の課題に直面していた。
独立に訓練されたマルチモーダルM-CLIPと多言語mBARTを適応させるCLIPTransを提案する。
論文 参考訳(メタデータ) (2023-08-29T11:29:43Z) - Revisiting Machine Translation for Cross-lingual Classification [91.43729067874503]
この分野のほとんどの研究は、機械翻訳コンポーネントではなく多言語モデルに焦点を当てている。
より強力なMTシステムを用いて、原文のトレーニングと機械翻訳テキストの推論のミスマッチを緩和することにより、翻訳テストは以前想定していたよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-23T16:56:10Z) - Improving Multilingual Neural Machine Translation System for Indic
Languages [0.0]
低リソース言語翻訳に関わる問題に対処する多言語ニューラルマシン翻訳(MNMT)システムを提案する。
提案モデルの実現には最先端のトランスフォーマーアーキテクチャを用いる。
大量のデータに対する試行は、従来のモデルよりもその優位性を明らかにしている。
論文 参考訳(メタデータ) (2022-09-27T09:51:56Z) - Multilingual Neural Machine Translation:Can Linguistic Hierarchies Help? [29.01386302441015]
MNMT(Multilingual Neural Machine Translation)は、複数の言語間の翻訳をサポートする単一のNMTモデルを訓練する。
MNMTモデルの性能は、様々な言語から知識を伝達することで、負の転送によって翻訳性能が低下するので、訓練で使用される言語の種類に大きく依存する。
本稿では,MNMTにおける階層的知識蒸留(HKD)手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T02:31:48Z) - Distributionally Robust Multilingual Machine Translation [94.51866646879337]
本稿では,分散的ロバストな最適化に基づくMNMT(Multilingual Neural Machine Translation)の新しい学習目標を提案する。
この目的を,反復的最適応答方式を用いて,大規模翻訳コーパスに対して実用的に最適化する方法を示す。
本手法は,多対一の翻訳設定と多対多の翻訳設定の両方において,平均と言語毎のパフォーマンスにおいて,強いベースライン法より一貫して優れる。
論文 参考訳(メタデータ) (2021-09-09T03:48:35Z) - Beyond English-Centric Multilingual Machine Translation [74.21727842163068]
我々は真の多言語多言語翻訳モデルを作成し、100言語のいずれかのペア間で直接翻訳できる。
大規模なマイニングによって生成された教師付きデータで、数千の言語方向をカバーするトレーニングデータセットを構築し、オープンソースにしています。
WMTのベストシングルシステムに競争力を持たせながら、非英語の方向を直接翻訳する場合、非英語モデルに焦点をあてると10 BLEU以上のゲインが得られる。
論文 参考訳(メタデータ) (2020-10-21T17:01:23Z) - Multi-task Learning for Multilingual Neural Machine Translation [32.81785430242313]
本稿では,bitextデータ上での翻訳タスクと,モノリンガルデータ上での2つの認知タスクを併用してモデルを学習するマルチタスク学習フレームワークを提案する。
提案手法は,高リソース言語と低リソース言語の両方の翻訳品質を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2020-10-06T06:54:12Z) - Multilingual Translation with Extensible Multilingual Pretraining and
Finetuning [77.33262578776291]
これまでの研究は、bitextで微調整することで機械翻訳システムを作成できることを実証してきた。
多言語翻訳モデルは多言語微調整により作成可能であることを示す。
事前訓練されたモデルは、性能を損なうことなく、追加の言語を組み込むように拡張できることを実証する。
論文 参考訳(メタデータ) (2020-08-02T05:36:55Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。