論文の概要: Contrastive Learning for Many-to-many Multilingual Neural Machine
Translation
- arxiv url: http://arxiv.org/abs/2105.09501v1
- Date: Thu, 20 May 2021 03:59:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:46:38.511386
- Title: Contrastive Learning for Many-to-many Multilingual Neural Machine
Translation
- Title(参考訳): 多対多多言語ニューラルマシン翻訳のためのコントラスト学習
- Authors: Xiao Pan, Mingxuan Wang, Liwei Wu, Lei Li
- Abstract要約: 既存の多言語機械翻訳アプローチは主に英語中心の方向に焦点を当てている。
我々は、英語以外の方向の質を重視した多言語翻訳システムの構築を目指している。
- 参考スコア(独自算出の注目度): 16.59039088482523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing multilingual machine translation approaches mainly focus on
English-centric directions, while the non-English directions still lag behind.
In this work, we aim to build a many-to-many translation system with an
emphasis on the quality of non-English language directions. Our intuition is
based on the hypothesis that a universal cross-language representation leads to
better multilingual translation performance. To this end, we propose \method, a
training method to obtain a single unified multilingual translation model.
mCOLT is empowered by two techniques: (i) a contrastive learning scheme to
close the gap among representations of different languages, and (ii) data
augmentation on both multiple parallel and monolingual data to further align
token representations. For English-centric directions, mCOLT achieves
competitive or even better performance than a strong pre-trained model mBART on
tens of WMT benchmarks. For non-English directions, mCOLT achieves an
improvement of average 10+ BLEU compared with the multilingual baseline.
- Abstract(参考訳): 既存の多言語機械翻訳のアプローチは主に英語中心の方向に焦点を当てている。
本研究では,非英語の指示の質を重視した多対多翻訳システムの構築を目指している。
我々の直観は、普遍的な言語間表現がより優れた多言語翻訳性能をもたらすという仮説に基づいている。
そこで本研究では,単一統一多言語翻訳モデルを得るための学習法である \method を提案する。
mCOLTは、(i)異なる言語の表現間のギャップを埋めるための対照的な学習スキーム、(ii)トークン表現をさらに整合させる複数の並列データと単言語データの両方にデータ拡張を行う。
英語中心の方向では、mCOLTは、数十のWMTベンチマーク上の強力な事前訓練モデルmBARTよりも、競争力や性能が向上する。
非英語方向の場合、mCOLTは多言語ベースラインに比べて平均10以上のBLEUを改善する。
関連論文リスト
- Revisiting Machine Translation for Cross-lingual Classification [91.43729067874503]
この分野のほとんどの研究は、機械翻訳コンポーネントではなく多言語モデルに焦点を当てている。
より強力なMTシステムを用いて、原文のトレーニングと機械翻訳テキストの推論のミスマッチを緩和することにより、翻訳テストは以前想定していたよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-23T16:56:10Z) - Building Multilingual Machine Translation Systems That Serve Arbitrary
X-Y Translations [75.73028056136778]
任意のX-Y翻訳方向に対応するMNMTシステムを実際に構築する方法を示す。
また,本提案手法を,実用的な展開シナリオに対応するため,極めて大規模なデータ設定で検討した。
論文 参考訳(メタデータ) (2022-06-30T02:18:15Z) - Towards the Next 1000 Languages in Multilingual Machine Translation:
Exploring the Synergy Between Supervised and Self-Supervised Learning [48.15259834021655]
数百の言語をカバーする多言語機械翻訳モデルを構築するための実践的なアプローチを提案する。
私たちは、異なる言語ペアのデータ可用性に応じて、教師付きと自己監督型の目的の混合を使用します。
この2つのトレーニングパラダイム間の相乗効果により、ゼロリソース設定で高品質な翻訳を生成できることを実証する。
論文 参考訳(メタデータ) (2022-01-09T23:36:44Z) - Continual Mixed-Language Pre-Training for Extremely Low-Resource Neural
Machine Translation [53.22775597051498]
我々は,mbart を未熟な言語に効果的に適用するための,継続的な事前学習フレームワークを提案する。
その結果,mBARTベースラインの微調整性能を一貫して改善できることが示された。
私たちのアプローチは、両方の言語が元のmBARTの事前トレーニングで見られる翻訳ペアのパフォーマンスを高めます。
論文 参考訳(メタデータ) (2021-05-09T14:49:07Z) - Multi-task Learning for Multilingual Neural Machine Translation [32.81785430242313]
本稿では,bitextデータ上での翻訳タスクと,モノリンガルデータ上での2つの認知タスクを併用してモデルを学習するマルチタスク学習フレームワークを提案する。
提案手法は,高リソース言語と低リソース言語の両方の翻訳品質を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2020-10-06T06:54:12Z) - InfoXLM: An Information-Theoretic Framework for Cross-Lingual Language
Model Pre-Training [135.12061144759517]
本稿では,言語間言語モデルの事前学習を定式化する情報理論フレームワークを提案する。
コントラスト学習に基づく新しい事前学習課題を提案する。
単言語コーパスと並列コーパスの両方を活用することで、事前訓練されたモデルの言語間変換性を向上させるために、プレテキストを共同で訓練する。
論文 参考訳(メタデータ) (2020-07-15T16:58:01Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。