論文の概要: Alibaba-Translate China's Submission for WMT 2022 Quality Estimation
Shared Task
- arxiv url: http://arxiv.org/abs/2210.10049v1
- Date: Tue, 18 Oct 2022 08:55:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 14:02:10.825308
- Title: Alibaba-Translate China's Submission for WMT 2022 Quality Estimation
Shared Task
- Title(参考訳): アリババ、中国WMT2022の受注-品質評価業務
- Authors: Keqin Bao, Yu Wan, Dayiheng Liu, Baosong Yang, Wenqiang Lei, Xiangnan
He, Derek F.Wong, Jun Xie
- Abstract要約: 我々は、UniTEという品質評価共有タスクにおいて、文レベルのMQMベンチマークを提出する。
具体的には、トレーニング中に3種類の入力形式と事前学習された言語モデルを組み合わせたUniTEのフレームワークを用いる。
その結果,我々のモデルは多言語・英語・ロシア語設定では第1位,英語・ドイツ語・中国語設定では第2位に達した。
- 参考スコア(独自算出の注目度): 80.22825549235556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present our submission to the sentence-level MQM benchmark
at Quality Estimation Shared Task, named UniTE (Unified Translation
Evaluation). Specifically, our systems employ the framework of UniTE, which
combined three types of input formats during training with a pre-trained
language model. First, we apply the pseudo-labeled data examples for the
continuously pre-training phase. Notably, to reduce the gap between
pre-training and fine-tuning, we use data pruning and a ranking-based score
normalization strategy. For the fine-tuning phase, we use both Direct
Assessment (DA) and Multidimensional Quality Metrics (MQM) data from past
years' WMT competitions. Finally, we collect the source-only evaluation
results, and ensemble the predictions generated by two UniTE models, whose
backbones are XLM-R and InfoXLM, respectively. Results show that our models
reach 1st overall ranking in the Multilingual and English-Russian settings, and
2nd overall ranking in English-German and Chinese-English settings, showing
relatively strong performances in this year's quality estimation competition.
- Abstract(参考訳): 本稿では,UniTE(Uniified Translation Evaluation)と呼ばれる品質評価共有タスクにおいて,文レベルのMQMベンチマークを提案する。
具体的には、トレーニング中に3種類の入力形式と事前学習された言語モデルを組み合わせたUniTEのフレームワークを用いる。
まず、擬似ラベル付きデータの例を継続事前学習フェーズに適用する。
特に,事前学習と微調整のギャップを減らすために,データプルーニングとランキングに基づくスコア正規化戦略を用いる。
微調整フェーズでは,過去数年間のwmtコンペティションから得られた直接評価(da)と多次元品質指標(mqm)データを利用する。
最後に、ソースのみの評価結果を収集し、それぞれXLM-RとInfoXLMを持つ2つのUniTEモデルによって生成された予測をアンサンブルする。
その結果,我々のモデルは多言語・英語・ロシア語設定で第1位,英語・ドイツ語・中国語設定で第2位に達し,今年の品質評価競争では比較的高い成績を示した。
関連論文リスト
- Towards Zero-Shot Multimodal Machine Translation [64.9141931372384]
本稿では,マルチモーダル機械翻訳システムの学習において,完全教師付きデータの必要性を回避する手法を提案する。
我々の手法はZeroMMTと呼ばれ、2つの目的の混合で学習することで、強いテキストのみの機械翻訳(MT)モデルを適応させることである。
本手法が完全に教師付きトレーニングデータを持たない言語に一般化されることを証明するため,CoMMuTE評価データセットをアラビア語,ロシア語,中国語の3言語に拡張した。
論文 参考訳(メタデータ) (2024-07-18T15:20:31Z) - Unify word-level and span-level tasks: NJUNLP's Participation for the
WMT2023 Quality Estimation Shared Task [59.46906545506715]
我々は、WMT 2023 Quality Estimation (QE)共有タスクにNJUNLPチームを紹介する。
私たちのチームは2つのサブタスクすべてで英語とドイツ語のペアの予測を提出しました。
我々のモデルは、単語レベルと細粒度エラースパン検出サブタスクの両方において、英語とドイツ語で最高の結果を得た。
論文 参考訳(メタデータ) (2023-09-23T01:52:14Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - Alibaba-Translate China's Submission for WMT 2022 Metrics Shared Task [61.34108034582074]
私たちはUNITE(Unified Translation Evaluation)のコアアイデアに基づいてシステムを構築します。
モデル事前学習の段階では、まず擬似ラベル付きデータ例をUNITEの継続事前訓練に適用する。
微調整の段階では、過去のWMTコンペティションの直接評価(DA)と多次元品質メトリクス(MQM)のデータの両方を使用します。
論文 参考訳(メタデータ) (2022-10-18T08:51:25Z) - UniTE: Unified Translation Evaluation [63.58868113074476]
UniTEは3つの評価タスクをすべて処理する能力に携わる最初の統合フレームワークである。
We testify our framework on WMT 2019 Metrics and WMT 2020 Quality Estimation benchmarks。
論文 参考訳(メタデータ) (2022-04-28T08:35:26Z) - Ensemble Fine-tuned mBERT for Translation Quality Estimation [0.0]
本稿では,WMT 2021 QE共有タスクの提出について論じる。
提案システムは多言語BERT(mBERT)に基づく回帰モデルのアンサンブルである。
ピアソンの相関に匹敵する性能を示し、いくつかの言語対に対してMAE/RMSEのベースラインシステムを破る。
論文 参考訳(メタデータ) (2021-09-08T20:13:06Z) - Ensemble-based Transfer Learning for Low-resource Machine Translation
Quality Estimation [1.7188280334580195]
第5回機械翻訳会議(WMT20)の文レベルQE共有タスクに焦点を当てます。
このようなQEデータ不足の課題を克服するために、トランスファーラーニングを備えたアンサンブルベースの予測器推定QEモデルを提案する。
個々の言語で事前学習されたモデルと異なるレベルの並列学習コーパスと、ピアソンの相関値0.298とを組み合わせたアンサンブルモデルにおいて、最も優れた性能を実現する。
論文 参考訳(メタデータ) (2021-05-17T06:02:17Z) - Unbabel's Participation in the WMT20 Metrics Shared Task [8.621669980568822]
We present the contribution of the Unbabel team to the WMT 2020 Shared Task on Metrics。
すべての言語ペアでセグメントレベル、文書レベル、システムレベルのトラックに参加するつもりです。
前年度のテストセットを参考に、これらのトラックでモデルの結果を説明します。
論文 参考訳(メタデータ) (2020-10-29T12:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。