論文の概要: CometKiwi: IST-Unbabel 2022 Submission for the Quality Estimation Shared
Task
- arxiv url: http://arxiv.org/abs/2209.06243v1
- Date: Tue, 13 Sep 2022 18:05:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 12:50:48.737175
- Title: CometKiwi: IST-Unbabel 2022 Submission for the Quality Estimation Shared
Task
- Title(参考訳): CometKiwi: IST-Unbabel 2022 品質評価共有タスクの提出
- Authors: Ricardo Rei, Marcos Treviso, Nuno M. Guerreiro, Chrysoula Zerva, Ana
C. Farinha, Christine Maroti, Jos\'e G. C. de Souza, Taisiya Glushkova,
Duarte M. Alves, Alon Lavie, Luisa Coheur, Andr\'e F. T. Martins
- Abstract要約: WMT2022におけるISTとUnbabelの協力による品質評価の共有タスク(QE)について述べる。
研究チームは3つのサブタスク(i)文と単語レベルの品質予測,(ii)説明可能なQE,(iii)クリティカルエラー検出)に参加した。
- 参考スコア(独自算出の注目度): 11.716878242203267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the joint contribution of IST and Unbabel to the WMT 2022 Shared
Task on Quality Estimation (QE). Our team participated on all three subtasks:
(i) Sentence and Word-level Quality Prediction; (ii) Explainable QE; and (iii)
Critical Error Detection. For all tasks we build on top of the COMET framework,
connecting it with the predictor-estimator architecture of OpenKiwi, and
equipping it with a word-level sequence tagger and an explanation extractor.
Our results suggest that incorporating references during pretraining improves
performance across several language pairs on downstream tasks, and that jointly
training with sentence and word-level objectives yields a further boost.
Furthermore, combining attention and gradient information proved to be the top
strategy for extracting good explanations of sentence-level QE models. Overall,
our submissions achieved the best results for all three tasks for almost all
language pairs by a considerable margin.
- Abstract(参考訳): 本稿では,wmt 2022 品質評価タスク(qe)における ist と unbabel の共同貢献について述べる。
私たちのチームは3つのサブタスクすべてに参加しました。
(i)文及び単語レベルの品質予測
(ii)説明可能なqe,及び
(iii) 致命的なエラー検出。
すべてのタスクに対して、COMETフレームワーク上に構築し、OpenKiwiの予測-推定アーキテクチャに接続し、ワードレベルのシーケンスタグと説明抽出器を装備します。
以上の結果から,事前学習中に参照を組み込むことで,下流タスクにおける複数の言語ペアのパフォーマンスが向上し,文レベルと単語レベルの目標との協調トレーニングがさらに向上することが示唆された。
さらに,注意情報と勾配情報を組み合わせることで,文レベルQEモデルの適切な説明を抽出する最重要戦略が証明された。
全体として、我々の提案は、ほぼ全ての言語ペアで3つのタスクすべてに対して、かなりのマージンで最高の結果を得た。
関連論文リスト
- Unify word-level and span-level tasks: NJUNLP's Participation for the
WMT2023 Quality Estimation Shared Task [59.46906545506715]
我々は、WMT 2023 Quality Estimation (QE)共有タスクにNJUNLPチームを紹介する。
私たちのチームは2つのサブタスクすべてで英語とドイツ語のペアの予測を提出しました。
我々のモデルは、単語レベルと細粒度エラースパン検出サブタスクの両方において、英語とドイツ語で最高の結果を得た。
論文 参考訳(メタデータ) (2023-09-23T01:52:14Z) - Scaling up COMETKIWI: Unbabel-IST 2023 Submission for the Quality
Estimation Shared Task [11.681598828340912]
We present the joint contribution of Unbabel and Instituto Superior T'ecnico to the WMT 2023 Shared Task on Quality Estimation (QE)。
私たちのチームは、文レベルと単語レベルの品質予測(タスク1)ときめ細かいエラースパン検出(タスク2)という、すべてのタスクに参加しました。
我々の多言語的アプローチは、すべてのタスクにおいて第一にランク付けされ、単語、スパン、文レベルの判断における品質評価のための最先端のパフォーマンスに到達します。
論文 参考訳(メタデータ) (2023-09-21T09:38:56Z) - Blind Image Quality Assessment via Vision-Language Correspondence: A
Multitask Learning Perspective [93.56647950778357]
ブラインド画像品質評価(BIQA)は、参照情報なしで画像品質の人間の知覚を予測する。
我々は,他のタスクからの補助的知識を活用するために,BIQAのための汎用的かつ自動化されたマルチタスク学習手法を開発した。
論文 参考訳(メタデータ) (2023-03-27T07:58:09Z) - Coarse-to-Fine: Hierarchical Multi-task Learning for Natural Language
Understanding [51.31622274823167]
本稿では,各タスクの下位レベルを全タスクに共有し,中間レベルを異なるグループに分割し,上位レベルを各タスクに割り当てる,粗大なパラダイムを持つ階層型フレームワークを提案する。
これにより、すべてのタスクから基本言語特性を学習し、関連するタスクのパフォーマンスを高め、無関係なタスクから負の影響を減らすことができる。
論文 参考訳(メタデータ) (2022-08-19T02:46:20Z) - niksss at HinglishEval: Language-agnostic BERT-based Contextual
Embeddings with Catboost for Quality Evaluation of the Low-Resource
Synthetically Generated Code-Mixed Hinglish Text [0.0]
本稿では,INLG 2022におけるHinglishEvalチャレンジのシステム記述について述べる。
本研究の目的は,コード混合テキスト生成システムの品質に影響を及ぼす要因について検討することであった。
論文 参考訳(メタデータ) (2022-06-17T17:36:03Z) - QASem Parsing: Text-to-text Modeling of QA-based Semantics [19.42681342441062]
本稿では,QA-SRL,QANom,QADiscourseの3つの意味的タスクについて考察する。
最初に統合されたQASem解析ツールをリリースし、下流アプリケーションに実用的です。
論文 参考訳(メタデータ) (2022-05-23T15:56:07Z) - Ensemble Fine-tuned mBERT for Translation Quality Estimation [0.0]
本稿では,WMT 2021 QE共有タスクの提出について論じる。
提案システムは多言語BERT(mBERT)に基づく回帰モデルのアンサンブルである。
ピアソンの相関に匹敵する性能を示し、いくつかの言語対に対してMAE/RMSEのベースラインシステムを破る。
論文 参考訳(メタデータ) (2021-09-08T20:13:06Z) - Rethinking End-to-End Evaluation of Decomposable Tasks: A Case Study on
Spoken Language Understanding [101.24748444126982]
分解可能なタスクは複雑で、サブタスクの階層から構成される。
しかし、既存のベンチマークでは、通常は表面レベルのサブタスクのみの例が示される。
サブタスク固有のユーティリティ関数上の座標アセントを用いて、ロバストなテストセットを構築するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-29T02:53:59Z) - Question Answering Infused Pre-training of General-Purpose
Contextualized Representations [70.62967781515127]
汎用的文脈表現学習のための質問応答(QA)に基づく事前学習目的を提案する。
我々は、より正確なクロスエンコーダモデルの予測と一致するように、個別にパスと質問をエンコードするバイエンコーダQAモデルをトレーニングすることで、この目標を達成する。
ゼロショット, 少数ショットのパラフレーズ検出において, RoBERTa-large と過去の最先端のどちらよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-06-15T14:45:15Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。