論文の概要: UniTE: Unified Translation Evaluation
- arxiv url: http://arxiv.org/abs/2204.13346v1
- Date: Thu, 28 Apr 2022 08:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-30 00:09:39.670842
- Title: UniTE: Unified Translation Evaluation
- Title(参考訳): UniTE: 統一翻訳評価
- Authors: Yu Wan, Dayiheng Liu, Baosong Yang, Haibo Zhang, Boxing Chen, Derek F.
Wong, Lidia S. Chao
- Abstract要約: UniTEは3つの評価タスクをすべて処理する能力に携わる最初の統合フレームワークである。
We testify our framework on WMT 2019 Metrics and WMT 2020 Quality Estimation benchmarks。
- 参考スコア(独自算出の注目度): 63.58868113074476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Translation quality evaluation plays a crucial role in machine translation.
According to the input format, it is mainly separated into three tasks, i.e.,
reference-only, source-only and source-reference-combined. Recent methods,
despite their promising results, are specifically designed and optimized on one
of them. This limits the convenience of these methods, and overlooks the
commonalities among tasks. In this paper, we propose UniTE, which is the first
unified framework engaged with abilities to handle all three evaluation tasks.
Concretely, we propose monotonic regional attention to control the interaction
among input segments, and unified pretraining to better adapt multi-task
learning. We testify our framework on WMT 2019 Metrics and WMT 2020 Quality
Estimation benchmarks. Extensive analyses show that our \textit{single model}
can universally surpass various state-of-the-art or winner methods across
tasks. Both source code and associated models are available at
https://github.com/NLP2CT/UniTE.
- Abstract(参考訳): 翻訳品質評価は機械翻訳において重要な役割を果たす。
入力形式によれば、主に3つのタスク、すなわち参照専用、ソース専用、ソース参照結合に分けられる。
期待された結果にもかかわらず、最近の手法は特別に設計され、最適化されている。
これはこれらのメソッドの利便性を制限し、タスク間の共通性を見落とします。
本稿では,3つの評価課題すべてを扱う能力に携わる最初の統合フレームワークであるUniTEを提案する。
具体的には,入力セグメント間のインタラクションを制御するための単調な局所的注意と,マルチタスク学習の適応性を高めるための統一事前学習を提案する。
我々は、wmt 2019 metricsとwmt 2020 quality estimation benchmarksでフレームワークをテストした。
広範な分析により、我々の \textit{single model} は、タスク間で様々な最先端メソッドや勝者メソッドを普遍的に超越できることが示された。
ソースコードと関連するモデルの両方がhttps://github.com/NLP2CT/UniTEで公開されている。
関連論文リスト
- Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Alibaba-Translate China's Submission for WMT 2022 Quality Estimation
Shared Task [80.22825549235556]
我々は、UniTEという品質評価共有タスクにおいて、文レベルのMQMベンチマークを提出する。
具体的には、トレーニング中に3種類の入力形式と事前学習された言語モデルを組み合わせたUniTEのフレームワークを用いる。
その結果,我々のモデルは多言語・英語・ロシア語設定では第1位,英語・ドイツ語・中国語設定では第2位に達した。
論文 参考訳(メタデータ) (2022-10-18T08:55:27Z) - Alibaba-Translate China's Submission for WMT 2022 Metrics Shared Task [61.34108034582074]
私たちはUNITE(Unified Translation Evaluation)のコアアイデアに基づいてシステムを構築します。
モデル事前学習の段階では、まず擬似ラベル付きデータ例をUNITEの継続事前訓練に適用する。
微調整の段階では、過去のWMTコンペティションの直接評価(DA)と多次元品質メトリクス(MQM)のデータの両方を使用します。
論文 参考訳(メタデータ) (2022-10-18T08:51:25Z) - Towards a Unified Multi-Dimensional Evaluator for Text Generation [101.47008809623202]
自然言語生成のための統一多次元評価器UniEvalを提案する。
我々はNLG評価をブール質問回答(QA)タスクとして再設定し、異なる質問でモデルを導くことで、複数の次元から評価するために1つの評価器を使うことができる。
3つの典型的なNLGタスクの実験では、UniEvalは既存のメトリクスよりも人間の判断と大きく相関している。
論文 参考訳(メタデータ) (2022-10-13T17:17:03Z) - FRMT: A Benchmark for Few-Shot Region-Aware Machine Translation [64.9546787488337]
本稿では、Few-shot Region-aware Machine Translationのための新しいデータセットと評価ベンチマークFRMTを提案する。
このデータセットは、英語からポルトガル語と中国語の2つの地域変種へのプロの翻訳で構成されている。
論文 参考訳(メタデータ) (2022-10-01T05:02:04Z) - Vision-Language Pre-Training for Multimodal Aspect-Based Sentiment
Analysis [25.482853330324748]
近年,マルチモーダル・アスペクトベース感性分析 (MABSA) が注目されている。
i) クロスモーダルアライメントを無視した事前学習された視覚モデルとテキストモデル、または(ii) 一般的な事前学習タスクで事前訓練された視覚的なきめ細やかなモデルのいずれかを使用する。
我々は,MABSA(MABSA)のためのタスク固有のビジョンランゲージ事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-17T08:44:00Z) - Automatic Machine Translation Evaluation in Many Languages via Zero-Shot
Paraphrasing [11.564158965143418]
我々は,機械翻訳評価の課題を,シーケンス・ツー・シーケンス・パラフレーズを用いたスコアリング機械翻訳出力の1つとして捉えた。
我々は,パラフレーズ処理をゼロショット翻訳タスクとして扱う多言語NMTシステムとして,パラフレーズを訓練することを提案する。
我々の手法は単純で直感的で、訓練には人間の判断を必要としない。
論文 参考訳(メタデータ) (2020-04-30T03:32:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。