論文の概要: SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task
- arxiv url: http://arxiv.org/abs/2010.05122v1
- Date: Sun, 11 Oct 2020 00:40:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 13:26:18.848290
- Title: SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task
- Title(参考訳): WMT20ニュース翻訳タスクのためのSJTU-NICTの監視・教師なしニューラルネットワーク翻訳システム
- Authors: Zuchao Li, Hai Zhao, Rui Wang, Kehai Chen, Masao Utiyama, Eiichiro
Sumita
- Abstract要約: 我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
- 参考スコア(独自算出の注目度): 111.91077204077817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduced our joint team SJTU-NICT 's participation in the
WMT 2020 machine translation shared task. In this shared task, we participated
in four translation directions of three language pairs: English-Chinese,
English-Polish on supervised machine translation track, German-Upper Sorbian on
low-resource and unsupervised machine translation tracks. Based on different
conditions of language pairs, we have experimented with diverse neural machine
translation (NMT) techniques: document-enhanced NMT, XLM pre-trained language
model enhanced NMT, bidirectional translation as a pre-training, reference
language based UNMT, data-dependent gaussian prior objective, and BT-BLEU
collaborative filtering self-training. We also used the TF-IDF algorithm to
filter the training set to obtain a domain more similar set with the test set
for finetuning. In our submissions, the primary systems won the first place on
English to Chinese, Polish to English, and German to Upper Sorbian translation
directions.
- Abstract(参考訳): 本稿では,wmt 2020機械翻訳共有タスクにおける共同チームsjtu-nictの参加について紹介する。
この共有タスクでは、英語、中国語、英語、ドイツ語、ドイツ語、ドイツ語、ドイツ語の3つの言語対の4つの翻訳方向に参加した。
文書化nmt, xlm事前学習型言語モデル強化nmt, 事前学習のための双方向翻訳, 参照言語ベースunmt, データ依存ガウス優先目標, bt-ブレウ協調フィルタリング自己学習など, 言語ペアの異なる条件に基づき, 多様なニューラルマシン翻訳(nmt)手法を実験した。
また、TF-IDFアルゴリズムを用いてトレーニングセットをフィルタリングし、テストセットと類似したドメインセットをファインタニングに利用した。
我々の提案では、主要なシステムは、中国語、ポーランド語、英語、ドイツ語から上ソルベ語への翻訳指示において、第一位を獲得した。
関連論文リスト
- DivEMT: Neural Machine Translation Post-Editing Effort Across
Typologically Diverse Languages [5.367993194110256]
DivEMTは、ニューラルネットワーク翻訳(NMT)に関する、タイプ的かつ多様なターゲット言語に対する初めての公開後研究である。
我々は、Google Translateとオープンソースの多言語モデルmBART50の2つの最先端NTTシステムの翻訳生産性への影響を評価する。
論文 参考訳(メタデータ) (2022-05-24T17:22:52Z) - Confidence Based Bidirectional Global Context Aware Training Framework
for Neural Machine Translation [74.99653288574892]
我々は、ニューラルネットワーク翻訳(NMT)のための信頼に基づく双方向グローバルコンテキスト認識(CBBGCA)トレーニングフレームワークを提案する。
提案したCBBGCAトレーニングフレームワークは,3つの大規模翻訳データセットにおいて,NMTモデルを+1.02,+1.30,+0.57 BLEUスコアで大幅に改善する。
論文 参考訳(メタデータ) (2022-02-28T10:24:22Z) - Multilingual Machine Translation Systems from Microsoft for WMT21 Shared
Task [95.06453182273027]
本報告では、大規模多言語機械翻訳におけるWMT21共有タスクのためのMicrosoftの機械翻訳システムについて述べる。
共有タスクへのモデル提出はDeltaLMnotefooturlhttps://aka.ms/deltalmで行われました。
最終提出は自動評価基準で3トラックにランクインした。
論文 参考訳(メタデータ) (2021-11-03T09:16:17Z) - Learning Domain Specific Language Models for Automatic Speech
Recognition through Machine Translation [0.0]
我々は、タスク固有のテキストデータの翻訳を最初に取得するために、中間ステップとしてNeural Machine Translationを使用します。
我々はNMTビームサーチグラフから単語混乱ネットワークを導出する手法を開発した。
NMT混在ネットワークは、n-gramと繰り返しニューラルネットワークLMの両方の難易度を低減するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-21T10:29:20Z) - Self-supervised and Supervised Joint Training for Resource-rich Machine
Translation [30.502625878505732]
テキスト表現の自己教師付き事前学習が低リソースニューラルネットワーク翻訳(NMT)に成功している
我々は,NMTモデルを最適化するために,自己教師付き学習と教師付き学習を組み合わせた共同学習手法である$F$-XEnDecを提案する。
論文 参考訳(メタデータ) (2021-06-08T02:35:40Z) - Zero-shot Cross-lingual Transfer of Neural Machine Translation with
Multilingual Pretrained Encoders [74.89326277221072]
多言語プリトレーニング済みエンコーダによるNMTモデルのクロスリンガル転送を改善する方法は、未検討です。
このタスクのシンプルで効果的なモデルであるSixTを提案します。
私達のモデルはCRISSおよびm2m-100より多くの英語テストセットでよりよい性能を達成します。
論文 参考訳(メタデータ) (2021-04-18T07:42:45Z) - The LMU Munich System for the WMT 2020 Unsupervised Machine Translation
Shared Task [125.06737861979299]
本稿では,LMUミュンヘンのWMT 2020における非教師なし共有タスクへの2つの言語方向の提出について述べる。
我々のunsupervised neural machine translation (UNMT) システムは Chronopoulou et al の戦略に従っている。
我々は、最高の性能のシステムを集め、ドイツ語で32.4点、上セルビアで35.2点、ドイツで35.2点に達した。
論文 参考訳(メタデータ) (2020-10-25T19:04:03Z) - Unsupervised Bitext Mining and Translation via Self-trained Contextual
Embeddings [51.47607125262885]
不整合テキストから機械翻訳(MT)のための擬似並列コーパスを作成するための教師なし手法について述べる。
我々は多言語BERTを用いて、最寄りの検索のためのソースとターゲット文の埋め込みを作成し、自己学習によりモデルを適応する。
BUCC 2017 bitextマイニングタスクで並列文ペアを抽出し,F1スコアの最大24.5ポイント増加(絶対)を従来の教師なし手法と比較して観察することで,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-10-15T14:04:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。