論文の概要: Reference Language based Unsupervised Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2004.02127v2
- Date: Fri, 9 Oct 2020 15:48:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 12:44:35.212320
- Title: Reference Language based Unsupervised Neural Machine Translation
- Title(参考訳): 参照言語に基づく教師なしニューラルマシン翻訳
- Authors: Zuchao Li, Hai Zhao, Rui Wang, Masao Utiyama, Eiichiro Sumita
- Abstract要約: 教師なしの神経機械翻訳は ほぼ完全に パラレルコーパスの呪いを和らげる
我々はUNMTのための新しい参照言語ベースのフレームワークであるRUNMTを提案し、参照言語はソースと並列コーパスを共有するのみである。
実験の結果,一つの補助言語のみを用いる強いベースラインよりもUNMTの品質が向上することが確認された。
- 参考スコア(独自算出の注目度): 108.64894168968067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exploiting a common language as an auxiliary for better translation has a
long tradition in machine translation and lets supervised learning-based
machine translation enjoy the enhancement delivered by the well-used pivot
language in the absence of a source language to target language parallel
corpus. The rise of unsupervised neural machine translation (UNMT) almost
completely relieves the parallel corpus curse, though UNMT is still subject to
unsatisfactory performance due to the vagueness of the clues available for its
core back-translation training. Further enriching the idea of pivot translation
by extending the use of parallel corpora beyond the source-target paradigm, we
propose a new reference language-based framework for UNMT, RUNMT, in which the
reference language only shares a parallel corpus with the source, but this
corpus still indicates a signal clear enough to help the reconstruction
training of UNMT through a proposed reference agreement mechanism. Experimental
results show that our methods improve the quality of UNMT over that of a strong
baseline that uses only one auxiliary language, demonstrating the usefulness of
the proposed reference language-based UNMT and establishing a good start for
the community.
- Abstract(参考訳): 共通言語をより良い翻訳の補助として利用することは、機械翻訳において長い伝統があり、教師付き学習ベースの機械翻訳は、言語並列コーパスを対象とするソース言語がない場合に、よく使われているピボット言語によって提供される拡張を享受できる。
unmt(unsupervised neural machine translation)の台頭は、並列コーパスの呪いをほぼ完全に緩和するが、unmtは、コアバックトランスレーショントレーニングで利用可能な手掛かりの曖昧さのため、まだ不十分なパフォーマンスを受ける。
さらに、ソースターゲットパラダイムを超えて並列コーパスの使用を拡大することで、ピボット変換の考え方をさらに強化し、基準言語がソースと並列コーパスを共有するUNMT, RUNMTのための新しい参照言語ベースのフレームワークを提案するが、このコーパスは、提案された参照合意機構を通じてUNMTの再構築トレーニングを支援するのに十分な信号を示す。
実験の結果,提案手法は,1つの補助言語のみを用いた強いベースラインよりもUNMTの質を向上し,提案手法の有効性を実証し,コミュニティにとって良い出発点となることを示した。
関連論文リスト
- BiVert: Bidirectional Vocabulary Evaluation using Relations for Machine
Translation [4.651581292181871]
本稿では,テキストから翻訳の感覚距離を評価するための双方向意味に基づく評価手法を提案する。
このアプローチでは、包括的な多言語百科事典BabelNetを用いる。
Factual analysis is a strong correlation between the average evaluations generated by our method and the human evaluations across various machine translation system for English- German language pair。
論文 参考訳(メタデータ) (2024-03-06T08:02:21Z) - Cross-lingual neural fuzzy matching for exploiting target-language
monolingual corpora in computer-aided translation [0.0]
本稿では,ドメイン内ターゲット言語(TL)モノリンガルコーパスの活用を目的とした,新しいニューラルアプローチを提案する。
本手法は,TL単言語コーパスから翻訳提案を検索するための言語間文の埋め込みと,後処理を推定するためのニューラルモデルに頼っている。
本稿では,これらの手法を4つの言語ペア上で自動評価することにより,TMベースのCAT環境におけるモノリンガルテキストの活用に成功していることを示す。
論文 参考訳(メタデータ) (2024-01-16T14:00:28Z) - Extending Multilingual Machine Translation through Imitation Learning [60.15671816513614]
Imit-MNMTは、タスクを専門家の行動を模倣する模倣学習プロセスとして扱う。
提案手法は,新言語と原言語の翻訳性能を大幅に向上させることを示す。
我々はまた、我々のアプローチがコピーとオフターゲットの問題を解決することができることを示した。
論文 参考訳(メタデータ) (2023-11-14T21:04:03Z) - Boosting Unsupervised Machine Translation with Pseudo-Parallel Data [2.900810893770134]
本研究では,モノリンガルコーパスから抽出した擬似並列文対と,モノリンガルコーパスから逆転写された合成文対を利用する訓練戦略を提案する。
裏書きされたデータのみに基づいてトレーニングされたベースラインに対して、最大14.5 BLEUポイント(ウクライナ語)の改善を達成しました。
論文 参考訳(メタデータ) (2023-10-22T10:57:12Z) - Self-supervised and Supervised Joint Training for Resource-rich Machine
Translation [30.502625878505732]
テキスト表現の自己教師付き事前学習が低リソースニューラルネットワーク翻訳(NMT)に成功している
我々は,NMTモデルを最適化するために,自己教師付き学習と教師付き学習を組み合わせた共同学習手法である$F$-XEnDecを提案する。
論文 参考訳(メタデータ) (2021-06-08T02:35:40Z) - Self-Training for Unsupervised Neural Machine Translation in Unbalanced
Training Data Scenarios [61.88012735215636]
巨大な単言語コーパスのみに依存するunsupervised neural machine translation (UNMT)は、いくつかの翻訳タスクにおいて顕著な成果を上げている。
現実のシナリオでは、エストニア語のような極低リソース言語には巨大なモノリンガルコーパスは存在しない。
頑健なUNMTシステムの訓練と性能向上のためのUNMT自己学習機構を提案する。
論文 参考訳(メタデータ) (2020-04-09T12:07:17Z) - Explicit Reordering for Neural Machine Translation [50.70683739103066]
Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己アテンションネットワークが順序依存でソース表現を学習するのに役立つ。
本研究では,トランスフォーマーベースのNMTに対して,このリオーダ情報を明示的にモデル化する新しいリオーダ手法を提案する。
WMT14, WAT ASPEC日本語訳, WMT17中国語訳の実証結果から, 提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-04-08T05:28:46Z) - Cross-lingual Supervision Improves Unsupervised Neural Machine
Translation [97.84871088440102]
我々は,高リソース言語対からゼロリソース翻訳方向への弱教師付き信号を活用するために,多言語非教師付きNMTフレームワークを導入する。
6つのベンチマークの教師なし翻訳方向において,BLEUスコアが3以上あることにより,翻訳品質が大幅に向上する。
論文 参考訳(メタデータ) (2020-04-07T05:46:49Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。