論文の概要: RoBLEURT Submission for the WMT2021 Metrics Task
- arxiv url: http://arxiv.org/abs/2204.13352v1
- Date: Thu, 28 Apr 2022 08:49:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 23:33:53.511853
- Title: RoBLEURT Submission for the WMT2021 Metrics Task
- Title(参考訳): WMT2021 Metrics Task の RoBLEURT 提出
- Authors: Yu Wan, Dayiheng Liu, Baosong Yang, Tianchi Bi, Haibo Zhang, Boxing
Chen, Weihua Luo, Derek F. Wong, Lidia S. Chao
- Abstract要約: 本稿では,共有メトリクスタスクであるRoBLEURTについて紹介する。
我々のモデルは10対の英語言語対のうち8対でWMT 2020の人間のアノテーションと最先端の相関に達する。
- 参考スコア(独自算出の注目度): 72.26898579202076
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present our submission to Shared Metrics Task: RoBLEURT
(Robustly Optimizing the training of BLEURT). After investigating the recent
advances of trainable metrics, we conclude several aspects of vital importance
to obtain a well-performed metric model by: 1) jointly leveraging the
advantages of source-included model and reference-only model, 2) continuously
pre-training the model with massive synthetic data pairs, and 3) fine-tuning
the model with data denoising strategy. Experimental results show that our
model reaching state-of-the-art correlations with the WMT2020 human annotations
upon 8 out of 10 to-English language pairs.
- Abstract(参考訳): 本稿では,共有メトリックタスクのRoBLEURT(Robustly Optimizing the Training of BLEURT)について述べる。
トレーニング可能なメトリクスの最近の進歩を調査した結果、私たちは次のような重要な側面を結論付けている。
1)ソースインクルードモデルと参照専用モデルの利点を共同で活用する。
2)大量合成データペアでモデルを継続的に事前訓練し、
3) データ記述戦略でモデルを微調整する。
実験の結果,10対の言語対のうち8対に対して,WMT2020の人文アノテーションと最先端の相関が得られた。
関連論文リスト
- Meta-Learning Adaptable Foundation Models [37.458141335750696]
本稿では,PEFTを組み込んだメタラーニングフレームワークを導入し,未知のタスクに容易に適応可能なモデルを学習する。
この設定では、適応可能なパラメータの集合を見つけるための標準再訓練の準最適性を示す。
次に、これらの理論的洞察をRoBERTaモデルの再訓練に適用し、ConvAI2データセット内の会話の継続を予測する。
論文 参考訳(メタデータ) (2024-10-29T17:24:18Z) - SmurfCat at SemEval-2024 Task 6: Leveraging Synthetic Data for Hallucination Detection [51.99159169107426]
本稿では,SemEval-2024幻覚検出タスクのための新しいシステムを提案する。
我々の調査は、モデル予測と基準基準を比較するための様々な戦略にまたがっている。
強力なパフォーマンス指標を示す3つの異なる方法を紹介します。
論文 参考訳(メタデータ) (2024-04-09T09:03:44Z) - Has Your Pretrained Model Improved? A Multi-head Posterior Based
Approach [25.927323251675386]
我々は、世界的知識の源として各エンティティに関連するメタ機能を活用し、モデルからエンティティ表現を採用する。
本稿では,これらの表現とメタ機能との整合性を,事前学習モデルの評価指標として用いることを提案する。
提案手法の有効性は,関係データセットを用いたモデル,大規模言語モデル,画像モデルなど,様々な領域で実証されている。
論文 参考訳(メタデータ) (2024-01-02T17:08:26Z) - Cross-Modal Fine-Tuning: Align then Refine [83.37294254884446]
ORCAはクロスモーダルな微調整フレームワークであり、単一の大規模事前訓練モデルの適用範囲を様々に拡張する。
ORCAは12のモダリティから60以上のデータセットを含む3つのベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2023-02-11T16:32:28Z) - Alibaba-Translate China's Submission for WMT 2022 Metrics Shared Task [61.34108034582074]
私たちはUNITE(Unified Translation Evaluation)のコアアイデアに基づいてシステムを構築します。
モデル事前学習の段階では、まず擬似ラベル付きデータ例をUNITEの継続事前訓練に適用する。
微調整の段階では、過去のWMTコンペティションの直接評価(DA)と多次元品質メトリクス(MQM)のデータの両方を使用します。
論文 参考訳(メタデータ) (2022-10-18T08:51:25Z) - UNIMIB at TREC 2021 Clinical Trials Track [2.840363325289377]
この貢献は、UNIMIBチームのTREC 2021臨床試験トラックへの参加を要約している。
本研究では,クエリ表現と複数の検索モデルの組み合わせが検索性能に与える影響について検討した。
論文 参考訳(メタデータ) (2022-07-27T13:39:30Z) - FH-SWF SG at GermEval 2021: Using Transformer-Based Language Models to
Identify Toxic, Engaging, & Fact-Claiming Comments [0.0]
我々はGermEval 2021への提出に使用した手法について述べる。
3つのサブタスクすべてに対して、Hugingfaceモデルハブから利用可能なトランスフォーマーベースのモデルを微調整しました。
トレーニングデータの80%を微調整した後, 各種事前学習モデルの性能評価を行い, 得られた2つのモデルについて予測を行った。
論文 参考訳(メタデータ) (2021-09-07T09:46:27Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - Improving Zero and Few-Shot Abstractive Summarization with Intermediate
Fine-tuning and Data Augmentation [101.26235068460551]
大規模テキストコーパス上での自己教師対象による事前学習モデルは、英語テキスト要約タスクにおける最先端のパフォーマンスを達成する。
モデルは通常、数十万のデータポイントで微調整されるが、これは新しいニッチなドメインに要約を適用する際に、実現不可能な要件である。
我々は、教師なし、データセット固有の方法で要約のための訓練済みモデルを微調整するための、WikiTransferと呼ばれる新しい一般化可能な手法を紹介した。
論文 参考訳(メタデータ) (2020-10-24T08:36:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。