論文の概要: The LMU Munich System for the WMT 2020 Unsupervised Machine Translation
Shared Task
- arxiv url: http://arxiv.org/abs/2010.13192v1
- Date: Sun, 25 Oct 2020 19:04:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 04:39:32.753761
- Title: The LMU Munich System for the WMT 2020 Unsupervised Machine Translation
Shared Task
- Title(参考訳): WMT 2020無監督機械翻訳共有タスクのためのLMUミュンヘンシステム
- Authors: Alexandra Chronopoulou, Dario Stojanovski, Viktor Hangya, Alexander
Fraser
- Abstract要約: 本稿では,LMUミュンヘンのWMT 2020における非教師なし共有タスクへの2つの言語方向の提出について述べる。
我々のunsupervised neural machine translation (UNMT) システムは Chronopoulou et al の戦略に従っている。
我々は、最高の性能のシステムを集め、ドイツ語で32.4点、上セルビアで35.2点、ドイツで35.2点に達した。
- 参考スコア(独自算出の注目度): 125.06737861979299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes the submission of LMU Munich to the WMT 2020
unsupervised shared task, in two language directions, German<->Upper Sorbian.
Our core unsupervised neural machine translation (UNMT) system follows the
strategy of Chronopoulou et al. (2020), using a monolingual pretrained language
generation model (on German) and fine-tuning it on both German and Upper
Sorbian, before initializing a UNMT model, which is trained with online
backtranslation. Pseudo-parallel data obtained from an unsupervised statistical
machine translation (USMT) system is used to fine-tune the UNMT model. We also
apply BPE-Dropout to the low resource (Upper Sorbian) data to obtain a more
robust system. We additionally experiment with residual adapters and find them
useful in the Upper Sorbian->German direction. We explore sampling during
backtranslation and curriculum learning to use SMT translations in a more
principled way. Finally, we ensemble our best-performing systems and reach a
BLEU score of 32.4 on German->Upper Sorbian and 35.2 on Upper Sorbian->German.
- Abstract(参考訳): 本稿では,LMUミュンヘンのWMT 2020における教師なし共有タスクへの提出について,ドイツ語<->Upper Sorbianについて述べる。
我々のコアunsupervised neural machine translation (unmt) システムは、chronopoulou et al. (2020) の戦略に従い、単言語の事前学習された言語生成モデル(ドイツ語)を使用して、ドイツ語と上ソルビアンの両方で微調整し、unmtモデルを初期化する。
教師なし統計機械翻訳(USMT)システムから得られた擬似並列データを用いてUNMTモデルを微調整する。
また、BPE-Dropoutを低リソース(Upper Sorbian)データに適用し、より堅牢なシステムを得る。
さらに,残差アダプタを実験し,上ソルビアン→ドイツ方向において有用であることを確認した。
我々は,SMT翻訳をより原則的に活用するために,バックトランスレーションとカリキュラム学習中のサンプリングについて検討する。
最終的に、最高性能のシステムを集め、ドイツ語で32.4点、ドイツ語で35.2点に達した。
関連論文リスト
- Towards Zero-Shot Multimodal Machine Translation [64.9141931372384]
本稿では,マルチモーダル機械翻訳システムの学習において,完全教師付きデータの必要性を回避する手法を提案する。
我々の手法はZeroMMTと呼ばれ、2つの目的の混合で学習することで、強いテキストのみの機械翻訳(MT)モデルを適応させることである。
本手法が完全に教師付きトレーニングデータを持たない言語に一般化されることを証明するため,CoMMuTE評価データセットをアラビア語,ロシア語,中国語の3言語に拡張した。
論文 参考訳(メタデータ) (2024-07-18T15:20:31Z) - Boosting Unsupervised Machine Translation with Pseudo-Parallel Data [2.900810893770134]
本研究では,モノリンガルコーパスから抽出した擬似並列文対と,モノリンガルコーパスから逆転写された合成文対を利用する訓練戦略を提案する。
裏書きされたデータのみに基づいてトレーニングされたベースラインに対して、最大14.5 BLEUポイント(ウクライナ語)の改善を達成しました。
論文 参考訳(メタデータ) (2023-10-22T10:57:12Z) - Improving Simultaneous Machine Translation with Monolingual Data [94.1085601198393]
同時機械翻訳(SiMT)は通常、全文ニューラルネットワーク翻訳(NMT)モデルからシーケンスレベルの知識蒸留(Seq-KD)によって行われる。
本稿では,Sq-KD で蒸留した外部モノリンガルデータとバイリンガルデータを組み合わせて,SiMT の学生を訓練する SiMT の改善のためにモノリンガルデータを活用することを提案する。
論文 参考訳(メタデータ) (2022-12-02T14:13:53Z) - Tencent AI Lab - Shanghai Jiao Tong University Low-Resource Translation
System for the WMT22 Translation Task [49.916963624249355]
本稿では, Tencent AI Lab - Shanghai Jiao Tong University (TAL-SJTU) Low-Resource Translation system for the WMT22 shared taskについて述べる。
我々は、英語$Leftrightarrow$Livonianの一般的な翻訳作業に参加する。
本システムは,M2M100を対象言語に適応させる新しい手法を用いて構築した。
論文 参考訳(メタデータ) (2022-10-17T04:34:09Z) - Unsupervised Translation of German--Lower Sorbian: Exploring Training
and Novel Transfer Methods on a Low-Resource Language [2.4870937127982344]
本稿では,WMT 2021 Unsupervised Machine Translationタスクにおいて,Groningen大学が提案したシステムの背後にある手法について述べる。
本システムでは,標準的なトレーニング手順に3つの変更を加えたトランスフォーマーエンコーダデコーダアーキテクチャを用いている。
本稿では,DSBに対して3.2 BLEU,DSB$rightarrow$DEに対して4.0 BLEUを改良し,未知の言語の語彙を初期化する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-24T15:11:22Z) - CUNI Systems for the Unsupervised and Very Low Resource Translation Task
in WMT20 [3.183845608678763]
本稿では,WMT20タスクに係わるCUNIシステムについて,ドイツ語とアッパー・ソルビアン語間の教師なし機械翻訳について述べる。
完全に監督されていないシナリオでは、上ソルビアンから23.7 BLEUを翻訳し、25.5 と 23.7 のBLEUを達成しました。
我々の低リソースシステムは、ドイツ・チェコの並列データからの転送学習に依存し、57.4 BLEUと56.1 BLEUを達成した。
論文 参考訳(メタデータ) (2020-10-22T14:04:01Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z) - Cross-lingual Supervision Improves Unsupervised Neural Machine
Translation [97.84871088440102]
我々は,高リソース言語対からゼロリソース翻訳方向への弱教師付き信号を活用するために,多言語非教師付きNMTフレームワークを導入する。
6つのベンチマークの教師なし翻訳方向において,BLEUスコアが3以上あることにより,翻訳品質が大幅に向上する。
論文 参考訳(メタデータ) (2020-04-07T05:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。