論文の概要: The Volctrans Machine Translation System for WMT20
- arxiv url: http://arxiv.org/abs/2010.14806v2
- Date: Thu, 19 Nov 2020 10:29:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 05:21:26.348407
- Title: The Volctrans Machine Translation System for WMT20
- Title(参考訳): WMT20用Volctrans機械翻訳システム
- Authors: Liwei Wu, Xiao Pan, Zehui Lin, Yaoming Zhu, Mingxuan Wang, Lei Li
- Abstract要約: 本稿では,WMT20共有ニュース翻訳タスクにおけるVolcTransシステムについて述べる。
我々の基本的なシステムはTransformerをベースにしており、いくつかの変種(より広範またはより深い変換器、動的畳み込み)がある。
最終システムは、テキスト前処理、データ選択、合成データ生成、高度なモデルアンサンブル、多言語事前学習を含む。
- 参考スコア(独自算出の注目度): 44.99252423430649
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes our VolcTrans system on WMT20 shared news translation
task. We participated in 8 translation directions. Our basic systems are based
on Transformer, with several variants (wider or deeper Transformers, dynamic
convolutions). The final system includes text pre-process, data selection,
synthetic data generation, advanced model ensemble, and multilingual
pre-training.
- Abstract(参考訳): 本稿では,WMT20共有ニュース翻訳タスクにおけるVolcTransシステムについて述べる。
私たちは8つの翻訳の方向に参加した。
我々の基本的なシステムはトランスフォーマーに基づいており、いくつかの変種(より広い変圧器、より深い変圧器、動的畳み込み)がある。
最終システムは、テキスト前処理、データ選択、合成データ生成、高度なモデルアンサンブル、多言語事前学習を含む。
関連論文リスト
- HW-TSC's Submission to the CCMT 2024 Machine Translation Tasks [12.841065384808733]
我々はバイリンガル機械翻訳タスクとマルチドメイン機械翻訳タスクに参加する。
これら2つの翻訳タスクでは,正規化ドロップアウト,双方向トレーニング,データ多様化,前方翻訳,後方翻訳,交互学習,カリキュラム学習,トランスダクティブアンサンブル学習などの学習戦略を用いる。
論文 参考訳(メタデータ) (2024-09-23T09:20:19Z) - Summer: WeChat Neural Machine Translation Systems for the WMT22
Biomedical Translation Task [54.63368889359441]
本稿では,WeChatのWMT 2022への参加について紹介する。
我々のシステムはTransformerをベースにしており、翻訳の質を向上させるためにいくつかの異なるTransformer構造を使用している。
われわれの中国の$to$Englishシステムは、Summerと呼ばれ、すべての応募の中でBLEUのスコアが最も高い。
論文 参考訳(メタデータ) (2022-11-28T03:10:50Z) - The YiTrans End-to-End Speech Translation System for IWSLT 2022 Offline
Shared Task [92.5087402621697]
本稿では,IWSLT 2022オフラインタスクに対するエンドツーエンドYiTrans音声翻訳システムの提案について述べる。
YiTransシステムは、大規模な訓練済みエンコーダデコーダモデル上に構築されている。
最終提出は自動評価基準でまず英語・ドイツ語・英語・中国語のエンド・ツー・エンド・システムにランク付けする。
論文 参考訳(メタデータ) (2022-06-12T16:13:01Z) - Multilingual Machine Translation Systems from Microsoft for WMT21 Shared
Task [95.06453182273027]
本報告では、大規模多言語機械翻訳におけるWMT21共有タスクのためのMicrosoftの機械翻訳システムについて述べる。
共有タスクへのモデル提出はDeltaLMnotefooturlhttps://aka.ms/deltalmで行われました。
最終提出は自動評価基準で3トラックにランクインした。
論文 参考訳(メタデータ) (2021-11-03T09:16:17Z) - The NiuTrans Machine Translation Systems for WMT21 [23.121382706331403]
本稿では,WMT 2021ニュース翻訳タスクのNiuTransニューラルマシン翻訳システムについて述べる。
英語$leftarrow$$$ Chinese, Japanese, Russian, Icelandic$$$および英語$rightarrow$Hausaタスクを含む9つの言語指示書を提出した。
論文 参考訳(メタデータ) (2021-09-22T02:00:24Z) - The NiuTrans End-to-End Speech Translation System for IWSLT 2021 Offline
Task [23.008938777422767]
本稿では,IWSLT 2021オフラインタスクに対して,NuTransのエンドツーエンド音声翻訳システムを提案する。
我々はTransformerベースのモデルアーキテクチャを使用し、Conformer、相対位置符号化、スタックされた音響およびテキスト符号化により拡張する。
我々は MuST-C En-De テストセット上で 33.84 BLEU 点を達成する。
論文 参考訳(メタデータ) (2021-07-06T07:45:23Z) - Tilde at WMT 2020: News Task Systems [0.38073142980733]
本稿では、Tilde氏がWMT 2020に投稿した英語とポーランド語の両方の方向のニュース翻訳タスクについて述べる。
我々は,形態的に動機づけたサブワード単位ベースのトランスフォーマーベースモデルとして,ベースラインシステムを構築している。
最終モデルはTransformerベースとTransformerビッグモデルのアンサンブルで、左右に並べ替えられる。
論文 参考訳(メタデータ) (2020-10-29T08:59:37Z) - DiDi's Machine Translation System for WMT2020 [51.296629834996246]
我々は中国語>英語の翻訳指導に参画する。
この方向では、ベースラインモデルとしてTransformerを使用します。
その結果,日英のBLEUスコアは36.6ドルとなった。
論文 参考訳(メタデータ) (2020-10-16T06:25:48Z) - WeChat Neural Machine Translation Systems for WMT20 [61.03013964996131]
本システムは,有効な変種とDTMTアーキテクチャを備えたTransformerをベースとしている。
実験では,データ選択,複数の合成データ生成手法,高度な微調整手法,自己視覚モデルアンサンブルを用いた。
制約のある中国語と英語のシステムでは36.9のケースセンシティブなBLEUスコアが得られます。
論文 参考訳(メタデータ) (2020-10-01T08:15:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。