論文の概要: BJTU-WeChat's Systems for the WMT22 Chat Translation Task
- arxiv url: http://arxiv.org/abs/2211.15009v1
- Date: Mon, 28 Nov 2022 02:35:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 17:37:48.581890
- Title: BJTU-WeChat's Systems for the WMT22 Chat Translation Task
- Title(参考訳): WMT22チャット翻訳タスクのためのBJTU-WeChatのシステム
- Authors: Yunlong Liang, Fandong Meng, Jinan Xu, Yufeng Chen, Jie Zhou
- Abstract要約: 本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
- 参考スコア(独自算出の注目度): 66.81525961469494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces the joint submission of the Beijing Jiaotong University
and WeChat AI to the WMT'22 chat translation task for English-German. Based on
the Transformer, we apply several effective variants. In our experiments, we
utilize the pre-training-then-fine-tuning paradigm. In the first pre-training
stage, we employ data filtering and synthetic data generation (i.e.,
back-translation, forward-translation, and knowledge distillation). In the
second fine-tuning stage, we investigate speaker-aware in-domain data
generation, speaker adaptation, prompt-based context modeling, target denoising
fine-tuning, and boosted self-COMET-based model ensemble. Our systems achieve
0.810 and 0.946 COMET scores. The COMET scores of English-German and
German-English are the highest among all submissions.
- Abstract(参考訳): 本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用する。
実験では,事前学習型微調整パラダイムを用いた。
最初の事前学習段階では、データフィルタリングと合成データ生成(バックトランスレーション、フォワードトランスレーション、知識蒸留)を用いる。
第2のファインチューニング段階では、話者対応のドメイン内データ生成、話者適応、プロンプトベースコンテキストモデリング、ターゲットデノイング微調整、自己圧縮型モデルアンサンブルについて検討する。
本システムは0.810と0.946のCOMETスコアを得る。
英語とドイツ語のCOMETスコアは、全ての応募の中で最高である。
関連論文リスト
- KIT's Multilingual Speech Translation System for IWSLT 2023 [58.5152569458259]
IWSLT 2023の多言語トラックに対する音声翻訳システムについて述べる。
このタスクは、様々な量のリソースを持つ10の言語に翻訳する必要がある。
我々のケースド音声システムは、科学的な話の翻訳において、エンドツーエンドの音声よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-06-08T16:13:20Z) - TSMind: Alibaba and Soochow University's Submission to the WMT22
Translation Suggestion Task [16.986003476984965]
本稿では,Alibaba と Soochow 大学 TSMind の WMT 2022 Shared Task on Translation Suggestion への共同提出について述べる。
基本的に、大規模な事前学習モデルに基づいて、下流タスクを微調整するモデルパラダイムを利用する。
トレーニングデータの限られた使用状況を考えると,WeTSが提案するデータ拡張戦略に従えば,TSモデルの性能が向上する。
論文 参考訳(メタデータ) (2022-11-16T15:43:31Z) - Alibaba-Translate China's Submission for WMT 2022 Quality Estimation
Shared Task [80.22825549235556]
我々は、UniTEという品質評価共有タスクにおいて、文レベルのMQMベンチマークを提出する。
具体的には、トレーニング中に3種類の入力形式と事前学習された言語モデルを組み合わせたUniTEのフレームワークを用いる。
その結果,我々のモデルは多言語・英語・ロシア語設定では第1位,英語・ドイツ語・中国語設定では第2位に達した。
論文 参考訳(メタデータ) (2022-10-18T08:55:27Z) - Tencent AI Lab - Shanghai Jiao Tong University Low-Resource Translation
System for the WMT22 Translation Task [49.916963624249355]
本稿では, Tencent AI Lab - Shanghai Jiao Tong University (TAL-SJTU) Low-Resource Translation system for the WMT22 shared taskについて述べる。
我々は、英語$Leftrightarrow$Livonianの一般的な翻訳作業に参加する。
本システムは,M2M100を対象言語に適応させる新しい手法を用いて構築した。
論文 参考訳(メタデータ) (2022-10-17T04:34:09Z) - The YiTrans End-to-End Speech Translation System for IWSLT 2022 Offline
Shared Task [92.5087402621697]
本稿では,IWSLT 2022オフラインタスクに対するエンドツーエンドYiTrans音声翻訳システムの提案について述べる。
YiTransシステムは、大規模な訓練済みエンコーダデコーダモデル上に構築されている。
最終提出は自動評価基準でまず英語・ドイツ語・英語・中国語のエンド・ツー・エンド・システムにランク付けする。
論文 参考訳(メタデータ) (2022-06-12T16:13:01Z) - ON-TRAC Consortium Systems for the IWSLT 2022 Dialect and Low-resource
Speech Translation Tasks [8.651248939672769]
本稿では,IWSLT 2022の評価キャンペーンにおける2つの課題トラックに対して開発されたON-TRACコンソーシアム翻訳システムについて述べる。
ASRの大規模微調整wav2vec 2.0モデルを利用するカスケードモデルと比較した。
この結果から,小型のターゲットデータを用いた自己教師型モデルの方が,大規模な市販モデルに比べて低リソースのSTファインチューニングに有効であることが示唆された。
論文 参考訳(メタデータ) (2022-05-04T10:36:57Z) - WeChat Neural Machine Translation Systems for WMT21 [22.51171167457826]
本稿では,WMT 2021 WeChatにおけるAIの参加について紹介する。
我々は、データフィルタリング、大規模合成データ生成、高度な微調整アプローチ、そしてSelf-BLEUベースのモデルアンサンブルを取り入れている。
日本語・中国語・日本語・英語・ドイツ語にそれぞれ36.9点,46.9点,27.8点,31.3点のBLEUスコアが得られた。
論文 参考訳(メタデータ) (2021-08-05T06:38:48Z) - WeChat Neural Machine Translation Systems for WMT20 [61.03013964996131]
本システムは,有効な変種とDTMTアーキテクチャを備えたTransformerをベースとしている。
実験では,データ選択,複数の合成データ生成手法,高度な微調整手法,自己視覚モデルアンサンブルを用いた。
制約のある中国語と英語のシステムでは36.9のケースセンシティブなBLEUスコアが得られます。
論文 参考訳(メタデータ) (2020-10-01T08:15:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。