論文の概要: TSMind: Alibaba and Soochow University's Submission to the WMT22
Translation Suggestion Task
- arxiv url: http://arxiv.org/abs/2211.08987v1
- Date: Wed, 16 Nov 2022 15:43:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 15:04:54.333608
- Title: TSMind: Alibaba and Soochow University's Submission to the WMT22
Translation Suggestion Task
- Title(参考訳): TSMind:AlibabaとSoochow UniversityのWMT22翻訳提案タスクへの提出
- Authors: Xin Ge, Ke Wang, Jiayi Wang, Nini Xiao, Xiangyu Duan, Yu Zhao, Yuqi
Zhang
- Abstract要約: 本稿では,Alibaba と Soochow 大学 TSMind の WMT 2022 Shared Task on Translation Suggestion への共同提出について述べる。
基本的に、大規模な事前学習モデルに基づいて、下流タスクを微調整するモデルパラダイムを利用する。
トレーニングデータの限られた使用状況を考えると,WeTSが提案するデータ拡張戦略に従えば,TSモデルの性能が向上する。
- 参考スコア(独自算出の注目度): 16.986003476984965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the joint submission of Alibaba and Soochow University,
TSMind, to the WMT 2022 Shared Task on Translation Suggestion (TS). We
participate in the English-German and English-Chinese tasks. Basically, we
utilize the model paradigm fine-tuning on the downstream tasks based on
large-scale pre-trained models, which has recently achieved great success. We
choose FAIR's WMT19 English-German news translation system and MBART50 for
English-Chinese as our pre-trained models. Considering the task's condition of
limited use of training data, we follow the data augmentation strategies
proposed by WeTS to boost our TS model performance. The difference is that we
further involve the dual conditional cross-entropy model and GPT-2 language
model to filter augmented data. The leader board finally shows that our
submissions are ranked first in three of four language directions in the Naive
TS task of the WMT22 Translation Suggestion task.
- Abstract(参考訳): 本稿では,Alibaba と Soochow University, TSMind の WMT 2022 Shared Task on Translation Suggestion (TS) への共同提出について述べる。
私たちは英語とドイツ語のタスクに参加します。
基本的に,大規模事前学習モデルに基づく下流タスクの微調整をモデルパラダイムに応用し,近年大きな成功を収めている。
FAIR の WMT19 ニュース翻訳システムと MBART50 を事前学習モデルとして選択する。
トレーニングデータの限られた使用状況を考えると,WeTSが提案するデータ拡張戦略に従えば,TSモデルの性能が向上する。
差は、拡張データをフィルタリングするために、二重条件交叉エントロピーモデルとGPT-2言語モデルをさらに含むことである。
WMT22翻訳提案タスクのNaive TSタスクにおいて、我々の提案が4つの言語方向のうち3つにランクインしていることを示す。
関連論文リスト
- NLIP_Lab-IITH Low-Resource MT System for WMT24 Indic MT Shared Task [9.476463361600826]
本稿では,WMT 24の低リソースインデックス言語翻訳タスクについて述べる。
我々の一次システムは、事前訓練されたモデルに基づく言語固有の微調整に基づいている。
我々は、eng$rightarrow$as, eng$rightarrow$kha, eng$rightarrow$lus, eng$rightarrow$mniの公式公試セットにおいて、50.6, 42.3, 54.9, 66.3のchrF2スコアを得る。
論文 参考訳(メタデータ) (2024-10-04T08:02:43Z) - NAIST Simultaneous Speech Translation System for IWSLT 2024 [18.77311658086372]
本稿では,IWSLT 2024評価キャンペーンの同時進行に対するNAISTの提出について述べる。
We developed a multilingual end-to-end speech-to-text translation model with two-trained language model, HuBERT and mBART。
私たちはこのモデルを、ローカルアグリーメント(LA)とAlignAttという2つのデコードポリシでトレーニングしました。
音声から音声への変換法は,上述した音声からテキストへの変換モデルのカスケードであり,TTSモジュールをインクリメンタルに生成する。
論文 参考訳(メタデータ) (2024-06-30T20:41:02Z) - Findings of the WMT 2022 Shared Task on Translation Suggestion [63.457874930232926]
We report the results of the first edition of the WMT shared task on Translation Suggestion。
このタスクは、機械翻訳(MT)によって生成された文書全体に対して、特定の単語やフレーズの代替手段を提供することを目的としている。
2つのサブタスク、すなわち単純翻訳提案と暗示付き翻訳提案で構成されている。
論文 参考訳(メタデータ) (2022-11-30T03:48:36Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - Tencent AI Lab - Shanghai Jiao Tong University Low-Resource Translation
System for the WMT22 Translation Task [49.916963624249355]
本稿では, Tencent AI Lab - Shanghai Jiao Tong University (TAL-SJTU) Low-Resource Translation system for the WMT22 shared taskについて述べる。
我々は、英語$Leftrightarrow$Livonianの一般的な翻訳作業に参加する。
本システムは,M2M100を対象言語に適応させる新しい手法を用いて構築した。
論文 参考訳(メタデータ) (2022-10-17T04:34:09Z) - Netmarble AI Center's WMT21 Automatic Post-Editing Shared Task
Submission [6.043109546012043]
本稿では,Netmarble による WMT21 Automatic Post-Editing (APE) Shared Task for the English-German Language pairについて述べる。
Facebook FairのWMT19ニュース翻訳モデルは、大規模で強力なトレーニング済みニューラルネットワークを扱うために選ばれた。
性能向上のために、トレーニング後および微調整時に、外部翻訳を拡張機械翻訳(MT)として活用する。
論文 参考訳(メタデータ) (2021-09-14T08:21:18Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - DiDi's Machine Translation System for WMT2020 [51.296629834996246]
我々は中国語>英語の翻訳指導に参画する。
この方向では、ベースラインモデルとしてTransformerを使用します。
その結果,日英のBLEUスコアは36.6ドルとなった。
論文 参考訳(メタデータ) (2020-10-16T06:25:48Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。