論文の概要: Simultaneous Multi-Pivot Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2104.07410v1
- Date: Thu, 15 Apr 2021 12:19:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 23:28:24.270057
- Title: Simultaneous Multi-Pivot Neural Machine Translation
- Title(参考訳): 同時多能性ニューラルマシン翻訳
- Authors: Raj Dabre, Aizhan Imankulova, Masahiro Kaneko, Abhisek Chakrabarty
- Abstract要約: 同時のピボットNMT設定では、2つのピボット言語を使用することで最大5.8 BLEUの改善につながります。
N-way parallel UN corpus for Arabic to English NMTをフランス語とスペイン語でピボットとして用いた低リソース設定における実験により、2つのピボット言語を使用した同時ピボットNMT設定が最大5.8 BLEUの改善につながることが明らかになった。
- 参考スコア(独自算出の注目度): 12.796775798210133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Parallel corpora are indispensable for training neural machine translation
(NMT) models, and parallel corpora for most language pairs do not exist or are
scarce. In such cases, pivot language NMT can be helpful where a pivot language
is used such that there exist parallel corpora between the source and pivot and
pivot and target languages. Naturally, the quality of pivot language
translation is more inferior to what could be achieved with a direct parallel
corpus of a reasonable size for that pair. In a real-time simultaneous
translation setting, the quality of pivot language translation deteriorates
even further given that the model has to output translations the moment a few
source words become available. To solve this issue, we propose multi-pivot
translation and apply it to a simultaneous translation setting involving pivot
languages. Our approach involves simultaneously translating a source language
into multiple pivots, which are then simultaneously translated together into
the target language by leveraging multi-source NMT. Our experiments in a
low-resource setting using the N-way parallel UN corpus for Arabic to English
NMT via French and Spanish as pivots reveals that in a simultaneous pivot NMT
setting, using two pivot languages can lead to an improvement of up to 5.8
BLEU.
- Abstract(参考訳): 並列コーパスはニューラルマシン翻訳(NMT)モデルのトレーニングには不可欠であり、ほとんどの言語ペアの並列コーパスは存在しないか不足している。
このような場合、ピボット言語nmtは、ソースとピボットとピボットとターゲット言語の間に並列コーパスが存在するようにピボット言語を使用する場合に有用である。
当然、ピボット言語翻訳の品質は、そのペアに対して妥当な大きさの直接並列コーパスで達成できるものよりも劣っている。
リアルタイム同時翻訳設定では、いくつかのソース語が利用可能になった時点でモデルを出力しなければならないため、ピボット言語翻訳の品質はさらに悪化する。
この問題を解決するために,多言語翻訳を提案し,ピボット言語を含む同時翻訳環境に適用する。
我々のアプローチでは、ソース言語を複数のピボットに同時翻訳し、マルチソースnmtを利用して同時にターゲット言語に翻訳する。
n-way parallel un corpus for arabic to english nmt via french and spanish as pivots を用いた低リソース環境における実験により、ピボット nmt の同時設定では、2つのピボット言語を用いた場合、最大5.8 bleu の改善につながることが判明した。
関連論文リスト
- How effective is Multi-source pivoting for Translation of Low Resource Indian Languages? [43.44411629370054]
本稿では、ソース文とピボット文の両方を用いて、ピボットを用いた「複数ソース翻訳」アプローチについて検討する。
これまでの主張とは対照的に、マルチソースのピボットは最先端よりも限界的な改善をもたらすことが分かっています。
論文 参考訳(メタデータ) (2024-06-19T08:31:52Z) - Extending Multilingual Machine Translation through Imitation Learning [60.15671816513614]
Imit-MNMTは、タスクを専門家の行動を模倣する模倣学習プロセスとして扱う。
提案手法は,新言語と原言語の翻訳性能を大幅に向上させることを示す。
我々はまた、我々のアプローチがコピーとオフターゲットの問題を解決することができることを示した。
論文 参考訳(メタデータ) (2023-11-14T21:04:03Z) - Direct Neural Machine Translation with Task-level Mixture of Experts models [1.2338729811609357]
ダイレクト・ニューラル・マシン・トランスレーション (Direct Neural Machine Translation, NMT) は、2つの非英語言語間のテキストを翻訳する。
Task-level Mixture of Expert Model (Task-level MoE)は、多数の言語ペアに対して有望なNMT性能を示す。
論文 参考訳(メタデータ) (2023-10-18T18:19:45Z) - Mitigating Data Imbalance and Representation Degeneration in
Multilingual Machine Translation [103.90963418039473]
Bi-ACLは、MNMTモデルの性能を向上させるために、ターゲット側モノリンガルデータとバイリンガル辞書のみを使用するフレームワークである。
Bi-ACLは、長い尾の言語でも、高リソースの言語でも、より効果的であることを示す。
論文 参考訳(メタデータ) (2023-05-22T07:31:08Z) - Language Agnostic Multilingual Information Retrieval with Contrastive
Learning [59.26316111760971]
本稿では,多言語情報検索システムの学習方法を提案する。
並列コーパスと非並列コーパスを利用して、事前訓練された多言語言語モデルを改善する。
我々のモデルは少数のパラレル文でもうまく機能する。
論文 参考訳(メタデータ) (2022-10-12T23:53:50Z) - Multilingual Bidirectional Unsupervised Translation Through Multilingual
Finetuning and Back-Translation [23.401781865904386]
本研究では,NMTモデルをトレーニングし,未知の言語を英語と英語の両方に翻訳する2段階のアプローチを提案する。
最初の段階では、事前訓練されたXLM-RおよびRoBERTa重みにエンコーダデコーダモデルを初期化し、40言語で並列データに対して多言語微調整を行う。
第2段階では、この一般化機能を活用して、単言語データセットから合成並列データを生成し、その後、連続した後方翻訳ラウンドで双方向に訓練する。
論文 参考訳(メタデータ) (2022-09-06T21:20:41Z) - Towards the Next 1000 Languages in Multilingual Machine Translation:
Exploring the Synergy Between Supervised and Self-Supervised Learning [48.15259834021655]
数百の言語をカバーする多言語機械翻訳モデルを構築するための実践的なアプローチを提案する。
私たちは、異なる言語ペアのデータ可用性に応じて、教師付きと自己監督型の目的の混合を使用します。
この2つのトレーニングパラダイム間の相乗効果により、ゼロリソース設定で高品質な翻訳を生成できることを実証する。
論文 参考訳(メタデータ) (2022-01-09T23:36:44Z) - Towards Reinforcement Learning for Pivot-based Neural Machine
Translation with Non-autoregressive Transformer [49.897891031932545]
Pivot-based Neural Machine Translation (NMT) は、低リソースのセットアップで一般的に使用される。
我々は、ソースターゲットデータのトレーニングを可能にするエンドツーエンドのピボットベース統合モデルを提案する。
論文 参考訳(メタデータ) (2021-09-27T14:49:35Z) - Pre-training Multilingual Neural Machine Translation by Leveraging
Alignment Information [72.2412707779571]
mRASPは、汎用多言語ニューラルマシン翻訳モデルを事前訓練するためのアプローチである。
我々は,低,中,豊かな資源を含む多種多様な環境における42の翻訳方向の実験を行い,エキゾチックな言語対への変換を行った。
論文 参考訳(メタデータ) (2020-10-07T03:57:54Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。