論文の概要: WeChat Neural Machine Translation Systems for WMT20
- arxiv url: http://arxiv.org/abs/2010.00247v2
- Date: Mon, 5 Oct 2020 16:01:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 07:00:43.877456
- Title: WeChat Neural Machine Translation Systems for WMT20
- Title(参考訳): WMT20のためのWeChat Neural Machine Translationシステム
- Authors: Fandong Meng, Jianhao Yan, Yijin Liu, Yuan Gao, Xianfeng Zeng, Qinsong
Zeng, Peng Li, Ming Chen, Jie Zhou, Sifan Liu and Hao Zhou
- Abstract要約: 本システムは,有効な変種とDTMTアーキテクチャを備えたTransformerをベースとしている。
実験では,データ選択,複数の合成データ生成手法,高度な微調整手法,自己視覚モデルアンサンブルを用いた。
制約のある中国語と英語のシステムでは36.9のケースセンシティブなBLEUスコアが得られます。
- 参考スコア(独自算出の注目度): 61.03013964996131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We participate in the WMT 2020 shared news translation task on Chinese to
English. Our system is based on the Transformer (Vaswani et al., 2017a) with
effective variants and the DTMT (Meng and Zhang, 2019) architecture. In our
experiments, we employ data selection, several synthetic data generation
approaches (i.e., back-translation, knowledge distillation, and iterative
in-domain knowledge transfer), advanced finetuning approaches and self-bleu
based model ensemble. Our constrained Chinese to English system achieves 36.9
case-sensitive BLEU score, which is the highest among all submissions.
- Abstract(参考訳): 私たちはWMT 2020の中国語から英語へのニュース翻訳タスクに参加します。
我々のシステムは,有効な変種を持つTransformer (Vaswani et al., 2017a) とDTMT (Meng and Zhang, 2019) アーキテクチャに基づいている。
実験では,データ選択,バックトランスレーション,知識蒸留,反復的ドメイン内知識伝達,高度なファインタニングアプローチ,自己視覚モデルアンサンブルなど,いくつかの合成データ生成手法を採用した。
制約のある中国語と英語のシステムでは36.9のケースセンシティブなBLEUスコアが得られます。
関連論文リスト
- VBD-MT Chinese-Vietnamese Translation Systems for VLSP 2022 [0.11249583407496218]
我々は,ニューラルネットワークを用いたトランスフォーマーモデルに基づいて,学習前モデルであるmBARTを用いてシステムを構築する。
ベトナム語で38.9 BLEU、ベトナム語で38.0 BLEU、公試で38.0 BLEUを達成。
論文 参考訳(メタデータ) (2023-08-15T07:10:41Z) - Summer: WeChat Neural Machine Translation Systems for the WMT22
Biomedical Translation Task [54.63368889359441]
本稿では,WeChatのWMT 2022への参加について紹介する。
我々のシステムはTransformerをベースにしており、翻訳の質を向上させるためにいくつかの異なるTransformer構造を使用している。
われわれの中国の$to$Englishシステムは、Summerと呼ばれ、すべての応募の中でBLEUのスコアが最も高い。
論文 参考訳(メタデータ) (2022-11-28T03:10:50Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - The YiTrans End-to-End Speech Translation System for IWSLT 2022 Offline
Shared Task [92.5087402621697]
本稿では,IWSLT 2022オフラインタスクに対するエンドツーエンドYiTrans音声翻訳システムの提案について述べる。
YiTransシステムは、大規模な訓練済みエンコーダデコーダモデル上に構築されている。
最終提出は自動評価基準でまず英語・ドイツ語・英語・中国語のエンド・ツー・エンド・システムにランク付けする。
論文 参考訳(メタデータ) (2022-06-12T16:13:01Z) - WeChat Neural Machine Translation Systems for WMT21 [22.51171167457826]
本稿では,WMT 2021 WeChatにおけるAIの参加について紹介する。
我々は、データフィルタリング、大規模合成データ生成、高度な微調整アプローチ、そしてSelf-BLEUベースのモデルアンサンブルを取り入れている。
日本語・中国語・日本語・英語・ドイツ語にそれぞれ36.9点,46.9点,27.8点,31.3点のBLEUスコアが得られた。
論文 参考訳(メタデータ) (2021-08-05T06:38:48Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - DiDi's Machine Translation System for WMT2020 [51.296629834996246]
我々は中国語>英語の翻訳指導に参画する。
この方向では、ベースラインモデルとしてTransformerを使用します。
その結果,日英のBLEUスコアは36.6ドルとなった。
論文 参考訳(メタデータ) (2020-10-16T06:25:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。