論文の概要: When and Why is Unsupervised Neural Machine Translation Useless?
- arxiv url: http://arxiv.org/abs/2004.10581v1
- Date: Wed, 22 Apr 2020 14:00:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 18:14:43.411255
- Title: When and Why is Unsupervised Neural Machine Translation Useless?
- Title(参考訳): 教師なしのニューラルマシン翻訳はいつ、なぜ役に立たないのか?
- Authors: Yunsu Kim, Miguel Gra\c{c}a, Hermann Ney
- Abstract要約: 様々なデータ設定を持つ10の翻訳タスクにおいて、教師なし手法が妥当な翻訳を生成できない条件を分析する。
我々の分析は、現在の無監督NMTの限界を指摘し、即時の研究方向も示唆している。
- 参考スコア(独自算出の注目度): 43.68079166777282
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies the practicality of the current state-of-the-art
unsupervised methods in neural machine translation (NMT). In ten translation
tasks with various data settings, we analyze the conditions under which the
unsupervised methods fail to produce reasonable translations. We show that
their performance is severely affected by linguistic dissimilarity and domain
mismatch between source and target monolingual data. Such conditions are common
for low-resource language pairs, where unsupervised learning works poorly. In
all of our experiments, supervised and semi-supervised baselines with
50k-sentence bilingual data outperform the best unsupervised results. Our
analyses pinpoint the limits of the current unsupervised NMT and also suggest
immediate research directions.
- Abstract(参考訳): 本稿では,ニューラルマシン翻訳(NMT)における最先端の教師なし手法の実用性について検討する。
様々なデータ設定を持つ10の翻訳タスクにおいて、教師なし手法が妥当な翻訳を生成できない条件を分析する。
本報告では, 言語的相違やドメインミスマッチにより, その性能に深刻な影響があることが示される。
このような条件は、教師なし学習が不十分な低リソース言語ペアに共通している。
全実験において,50k文のバイリンガルデータを用いた教師なしおよび半教師なしのベースラインは,教師なしの結果よりも優れていた。
本解析は,現在教師なしのnmtの限界を突き止め,即時研究の方向性を示唆する。
関連論文リスト
- Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Improving Cascaded Unsupervised Speech Translation with Denoising
Back-translation [70.33052952571884]
我々は,任意のペアデータを活用することなく,カスケード音声翻訳システムを構築することを提案する。
教師なしのシステムをトレーニングし、CoVoST 2 と CVSS で結果を評価するために、完全にペア化されたデータを使用します。
論文 参考訳(メタデータ) (2023-05-12T13:07:51Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - What Can Unsupervised Machine Translation Contribute to High-Resource
Language Pairs? [18.924296648372795]
我々は、教師なしMTと教師なしMTのどちらによって生成された正しい翻訳のスタイルを比較した。
我々は、教師なしおよび教師なしMTの利点を単一のシステムに組み合わせる方法を示す。
論文 参考訳(メタデータ) (2021-06-30T05:44:05Z) - Zero-Shot Language Transfer vs Iterative Back Translation for
Unsupervised Machine Translation [1.2891210250935146]
この研究は、低リソース言語ペアに対する機械翻訳のさまざまなソリューションの比較に焦点を当てている。
本稿では,データサイズが教師なしMTと転送学習の両方のパフォーマンスに与える影響について論じる。
論文 参考訳(メタデータ) (2021-03-31T20:47:19Z) - When Does Unsupervised Machine Translation Work? [23.690875724726908]
我々は、異種言語ペア、異種ドメイン、多様なデータセット、真の低リソース言語を用いて、教師なし機械翻訳(MT)の実証評価を行う。
ソースコーパスとターゲットコーパスが異なるドメインから来た場合,性能は急速に低下することがわかった。
さらに、ソース言語とターゲット言語が異なるスクリプトを使用すると、教師なしMT性能が低下し、信頼性の高い低リソース言語ペアにおいて非常に低いパフォーマンスが観察される。
論文 参考訳(メタデータ) (2020-04-12T00:57:47Z) - Self-Training for Unsupervised Neural Machine Translation in Unbalanced
Training Data Scenarios [61.88012735215636]
巨大な単言語コーパスのみに依存するunsupervised neural machine translation (UNMT)は、いくつかの翻訳タスクにおいて顕著な成果を上げている。
現実のシナリオでは、エストニア語のような極低リソース言語には巨大なモノリンガルコーパスは存在しない。
頑健なUNMTシステムの訓練と性能向上のためのUNMT自己学習機構を提案する。
論文 参考訳(メタデータ) (2020-04-09T12:07:17Z) - Cross-lingual Supervision Improves Unsupervised Neural Machine
Translation [97.84871088440102]
我々は,高リソース言語対からゼロリソース翻訳方向への弱教師付き信号を活用するために,多言語非教師付きNMTフレームワークを導入する。
6つのベンチマークの教師なし翻訳方向において,BLEUスコアが3以上あることにより,翻訳品質が大幅に向上する。
論文 参考訳(メタデータ) (2020-04-07T05:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。