論文の概要: BMX: Boosting Natural Language Generation Metrics with Explainability
- arxiv url: http://arxiv.org/abs/2212.10469v2
- Date: Sat, 17 Feb 2024 16:55:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-02-21 07:36:27.224430
- Title: BMX: Boosting Natural Language Generation Metrics with Explainability
- Title(参考訳): BMX: 説明可能な自然言語生成メトリクスの強化
- Authors: Christoph Leiter, Hoa Nguyen, Steffen Eger
- Abstract要約: BMX: 説明責任を伴う自然言語生成メトリクスの強化は、メトリクスのパフォーマンスを高めるために説明を明示的に活用します。
本テストでは,MTおよび要約データセット間の複数のメトリクスの改善を示す。
- 参考スコア(独自算出の注目度): 23.8476163398993
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art natural language generation evaluation metrics are based on
black-box language models. Hence, recent works consider their explainability
with the goals of better understandability for humans and better metric
analysis, including failure cases. In contrast, our proposed method BMX:
Boosting Natural Language Generation Metrics with explainability explicitly
leverages explanations to boost the metrics' performance. In particular, we
perceive feature importance explanations as word-level scores, which we
convert, via power means, into a segment-level score. We then combine this
segment-level score with the original metric to obtain a better metric. Our
tests show improvements for multiple metrics across MT and summarization
datasets. While improvements in machine translation are small, they are strong
for summarization. Notably, BMX with the LIME explainer and preselected
parameters achieves an average improvement of 0.087 points in Spearman
correlation on the system-level evaluation of SummEval.
- Abstract(参考訳): 最先端の自然言語生成評価指標はブラックボックス言語モデルに基づいている。
したがって、最近の研究では、人間の理解力の向上と、失敗事例を含むメトリクス分析の改善という目標により、その説明可能性を検討している。
これとは対照的に,提案手法であるbmx: 説明可能な自然言語生成メトリクスの促進は,説明を明示的に活用してメトリクスのパフォーマンスを向上させる。
特に、特徴の重要性を単語レベルのスコアとして捉え、それをパワー手段でセグメントレベルのスコアに変換する。
そして、このセグメントレベルのスコアを元のメトリックと組み合わせ、より良いメトリックを得る。
本テストでは,MTおよび要約データセット間の複数のメトリクスの改善を示す。
機械翻訳の改善は小さいが、要約には強い。
特に, ライム弁別器と予め選択したパラメータを用いたbmxは, システムレベルの要約評価において, スピアマン相関において平均0.087点の改善を達成している。
関連論文リスト
- Cobra Effect in Reference-Free Image Captioning Metrics [58.438648377314436]
視覚言語事前学習モデル(VLM)を活用した参照フリー手法の普及が出現している。
本稿では,基準自由度に欠陥があるかどうかを考察する。
GPT-4Vは生成した文を評価するための評価ツールであり,提案手法がSOTA(State-of-the-art)の性能を達成することを示す。
論文 参考訳(メタデータ) (2024-02-18T12:36:23Z) - Machine Translation Meta Evaluation through Translation Accuracy
Challenge Sets [92.38654521870444]
ACESは146の言語ペアにまたがる対照的な課題セットです。
このデータセットは、メトリクスが68の翻訳精度の誤差を識別できるかどうかを調べることを目的としている。
我々は、WMT2022および2023のメトリクス共有タスクに提出された50のメトリクスに対して、ACESをベンチマークすることで、大規模な研究を行う。
論文 参考訳(メタデータ) (2024-01-29T17:17:42Z) - Towards Multiple References Era -- Addressing Data Leakage and Limited
Reference Diversity in NLG Evaluation [55.92852268168816]
BLEUやchrFのようなN-gramマッチングに基づく評価指標は、自然言語生成(NLG)タスクで広く利用されている。
近年の研究では、これらのマッチングベースの指標と人間の評価との間には弱い相関関係が示されている。
本稿では,これらの指標と人的評価の整合性を高めるために,テキストマルチプル参照を利用することを提案する。
論文 参考訳(メタデータ) (2023-08-06T14:49:26Z) - BLEURT Has Universal Translations: An Analysis of Automatic Metrics by
Minimum Risk Training [64.37683359609308]
本研究では,機械翻訳システムの学習指導の観点から,各種の主流および最先端の自動測定値について分析する。
BLEURT や BARTScore における普遍的逆変換の存在など,ある種の指標は堅牢性欠陥を示す。
詳細な分析では、これらのロバスト性障害の主な原因は、トレーニングデータセットにおける分布バイアスと、メートル法パラダイムの傾向である。
論文 参考訳(メタデータ) (2023-07-06T16:59:30Z) - The Inside Story: Towards Better Understanding of Machine Translation
Neural Evaluation Metrics [8.432864879027724]
我々は、いくつかの神経説明可能性法を開発し比較し、最先端の微調整ニューラルネットワークメトリクスの解釈の有効性を実証する。
本研究は,これらのメトリクスが,翻訳誤りに直接起因するトークンレベルの情報を活用することを明らかにした。
論文 参考訳(メタデータ) (2023-05-19T16:42:17Z) - Extrinsic Evaluation of Machine Translation Metrics [78.75776477562087]
文レベルでの翻訳と翻訳の良さを区別する上で,自動尺度が信頼性が高いかどうかは不明である。
我々は,3つの下流言語タスクにおいて,最も広く使用されているMTメトリクス(chrF,COMET,BERTScoreなど)のセグメントレベル性能を評価する。
実験の結果,各指標は下流結果の外部評価と負の相関を示すことがわかった。
論文 参考訳(メタデータ) (2022-12-20T14:39:58Z) - DEMETR: Diagnosing Evaluation Metrics for Translation [21.25704103403547]
我々は、英語31K例の診断データセットであるDEMETRをリリースする。
学習指標はDEMETRの文字列ベースの指標よりもかなり優れていることがわかった。
論文 参考訳(メタデータ) (2022-10-25T03:25:44Z) - MENLI: Robust Evaluation Metrics from Natural Language Inference [26.53850343633923]
最近提案されたBERTベースのテキスト生成評価指標は、標準ベンチマークでは良好に機能するが、敵攻撃には弱い。
自然言語推論(NLI)に基づく評価指標を開発する。
我々のNLIベースのメトリクスは、最近のBERTベースのメトリクスよりも攻撃に対してより堅牢であることを示す。
論文 参考訳(メタデータ) (2022-08-15T16:30:14Z) - SMART: Sentences as Basic Units for Text Evaluation [48.5999587529085]
本稿では,このような制約を緩和するSMARTと呼ばれる新しい指標を提案する。
文をトークンの代わりにマッチングの基本単位として扱い,ソフトマッチ候補と参照文に文マッチング関数を用いる。
この結果から,提案手法とモデルベースマッチング関数とのシステムレベルの相関は,全ての競合する指標よりも優れていた。
論文 参考訳(メタデータ) (2022-08-01T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。