論文の概要: The NiuTrans Machine Translation Systems for WMT21
- arxiv url: http://arxiv.org/abs/2109.10485v1
- Date: Wed, 22 Sep 2021 02:00:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:49:43.920029
- Title: The NiuTrans Machine Translation Systems for WMT21
- Title(参考訳): wmt21用niuトランス機械翻訳システム
- Authors: Shuhan Zhou, Tao Zhou, Binghao Wei, Yingfeng Luo, Yongyu Mu, Zefan
Zhou, Chenglong Wang, Xuanjun Zhou, Chuanhao Lv, Yi Jing, Laohu Wang, Jingnan
Zhang, Canan Huang, Zhongxiang Yan, Chi Hu, Bei Li, Tong Xiao and Jingbo Zhu
- Abstract要約: 本稿では,WMT 2021ニュース翻訳タスクのNiuTransニューラルマシン翻訳システムについて述べる。
英語$leftarrow$$$ Chinese, Japanese, Russian, Icelandic$$$および英語$rightarrow$Hausaタスクを含む9つの言語指示書を提出した。
- 参考スコア(独自算出の注目度): 23.121382706331403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes NiuTrans neural machine translation systems of the WMT
2021 news translation tasks. We made submissions to 9 language directions,
including English$\leftrightarrow$$\{$Chinese, Japanese, Russian, Icelandic$\}$
and English$\rightarrow$Hausa tasks. Our primary systems are built on several
effective variants of Transformer, e.g., Transformer-DLCL, ODE-Transformer. We
also utilize back-translation, knowledge distillation, post-ensemble, and
iterative fine-tuning techniques to enhance the model performance further.
- Abstract(参考訳): 本稿では,WMT 2021ニュース翻訳タスクのNiuTransニューラルマシン翻訳システムについて述べる。
我々は、英語$\leftrightarrow$$\{$ Chinese, Japanese, Russian, Icelandic$\}$, English$\rightarrow$Hausaタスクを含む9つの言語指示を提出した。
本稿では,Transformer-DLCL や ODE-Transformer など,Transformer の有効な派生版について述べる。
また, バックトランスレーション, 知識蒸留, ポストアンサンブル, 反復微調整技術を利用して, モデル性能をさらに向上する。
関連論文リスト
- HW-TSC's Submission to the CCMT 2024 Machine Translation Tasks [12.841065384808733]
我々はバイリンガル機械翻訳タスクとマルチドメイン機械翻訳タスクに参加する。
これら2つの翻訳タスクでは,正規化ドロップアウト,双方向トレーニング,データ多様化,前方翻訳,後方翻訳,交互学習,カリキュラム学習,トランスダクティブアンサンブル学習などの学習戦略を用いる。
論文 参考訳(メタデータ) (2024-09-23T09:20:19Z) - Summer: WeChat Neural Machine Translation Systems for the WMT22
Biomedical Translation Task [54.63368889359441]
本稿では,WeChatのWMT 2022への参加について紹介する。
我々のシステムはTransformerをベースにしており、翻訳の質を向上させるためにいくつかの異なるTransformer構造を使用している。
われわれの中国の$to$Englishシステムは、Summerと呼ばれ、すべての応募の中でBLEUのスコアが最も高い。
論文 参考訳(メタデータ) (2022-11-28T03:10:50Z) - The YiTrans End-to-End Speech Translation System for IWSLT 2022 Offline
Shared Task [92.5087402621697]
本稿では,IWSLT 2022オフラインタスクに対するエンドツーエンドYiTrans音声翻訳システムの提案について述べる。
YiTransシステムは、大規模な訓練済みエンコーダデコーダモデル上に構築されている。
最終提出は自動評価基準でまず英語・ドイツ語・英語・中国語のエンド・ツー・エンド・システムにランク付けする。
論文 参考訳(メタデータ) (2022-06-12T16:13:01Z) - The NiuTrans System for the WMT21 Efficiency Task [26.065244284992147]
本稿では,WMT21翻訳効率タスクのためのNiuTransシステムについて述べる。
私たちのシステムはNVIDIA A100で毎秒247,000ワードを変換することができ、昨年のシステムよりも3$times$高速です。
論文 参考訳(メタデータ) (2021-09-16T14:21:52Z) - The Volctrans Machine Translation System for WMT20 [44.99252423430649]
本稿では,WMT20共有ニュース翻訳タスクにおけるVolcTransシステムについて述べる。
我々の基本的なシステムはTransformerをベースにしており、いくつかの変種(より広範またはより深い変換器、動的畳み込み)がある。
最終システムは、テキスト前処理、データ選択、合成データ生成、高度なモデルアンサンブル、多言語事前学習を含む。
論文 参考訳(メタデータ) (2020-10-28T08:08:12Z) - DiDi's Machine Translation System for WMT2020 [51.296629834996246]
我々は中国語>英語の翻訳指導に参画する。
この方向では、ベースラインモデルとしてTransformerを使用します。
その結果,日英のBLEUスコアは36.6ドルとなった。
論文 参考訳(メタデータ) (2020-10-16T06:25:48Z) - WeChat Neural Machine Translation Systems for WMT20 [61.03013964996131]
本システムは,有効な変種とDTMTアーキテクチャを備えたTransformerをベースとしている。
実験では,データ選択,複数の合成データ生成手法,高度な微調整手法,自己視覚モデルアンサンブルを用いた。
制約のある中国語と英語のシステムでは36.9のケースセンシティブなBLEUスコアが得られます。
論文 参考訳(メタデータ) (2020-10-01T08:15:09Z) - Explicit Reordering for Neural Machine Translation [50.70683739103066]
Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己アテンションネットワークが順序依存でソース表現を学習するのに役立つ。
本研究では,トランスフォーマーベースのNMTに対して,このリオーダ情報を明示的にモデル化する新しいリオーダ手法を提案する。
WMT14, WAT ASPEC日本語訳, WMT17中国語訳の実証結果から, 提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-04-08T05:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。