論文の概要: ED-FAITH: Evaluating Dialogue Summarization on Faithfulness
- arxiv url: http://arxiv.org/abs/2211.08464v1
- Date: Tue, 15 Nov 2022 19:33:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 14:54:50.713795
- Title: ED-FAITH: Evaluating Dialogue Summarization on Faithfulness
- Title(参考訳): ED-FAITH: 忠実度に基づく対話要約の評価
- Authors: Sicong Huang, Asli Celikyilmaz, Haoran Li
- Abstract要約: まず,対話要約のための忠実度尺度の体系的研究を行った。
我々は,ほとんどの指標が,ニュースデータセットでよく機能しているにもかかわらず,人間の判断と相関が低いことを観察した。
忠実度評価のための新しい尺度T0-Scoreを提案する。
- 参考スコア(独自算出の注目度): 35.73012379398233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Abstractive summarization models typically generate content unfaithful to the
input, thus highlighting the significance of evaluating the faithfulness of
generated summaries. Most faithfulness metrics are only evaluated on news
domain, can they be transferred to other summarization tasks? In this work, we
first present a systematic study of faithfulness metrics for dialogue
summarization. We evaluate common faithfulness metrics on dialogue datasets and
observe that most metrics correlate poorly with human judgements despite
performing well on news datasets. Given these findings, to improve existing
metrics' performance on dialogue summarization, we first finetune on in-domain
dataset, then apply unlikelihood training on negative samples, and show that
they can successfully improve metric performance on dialogue data. Inspired by
the strong zero-shot performance of the T0 language model, we further propose
T0-Score -- a new metric for faithfulness evaluation, which shows consistent
improvement against baseline metrics across multiple domains.
- Abstract(参考訳): 抽象要約モデルは通常、入力に不信なコンテンツを生成し、生成された要約の忠実さを評価することの重要性を強調する。
ほとんどの信頼度指標はニュースドメインでのみ評価され、他の要約タスクに転送できますか?
本稿ではまず,対話要約のための忠実度尺度の体系的研究を行う。
対話データセットにおける共通忠実度指標を評価し,ニュースデータセット上では良好に機能するにも関わらず,ほとんどの指標が人間の判断と不相関であることを観察する。
これらの結果から,対話要約における既存のメトリクスの性能を向上させるために,まずドメイン内のデータセットを微調整し,負のサンプルに対して異なる訓練を施し,対話データ上でのメトリック性能を向上できることを示す。
t0言語モデルの強力なゼロショットパフォーマンスに触発されて、私たちはさらに、忠実性評価のための新しいメトリクスであるt0-scoreを提案しました。
関連論文リスト
- A Critical Look at Meta-evaluating Summarisation Evaluation Metrics [11.541368732416506]
私たちは、より堅牢な評価指標の開発を可能にする、より多様なベンチマークを構築するのに時間がかかっていると論じています。
我々は、生成された要約のコミュニケーション目標を考慮に入れた、ユーザ中心の品質次元に焦点を当てた研究を求めている。
論文 参考訳(メタデータ) (2024-09-29T01:30:13Z) - Evaluation of Faithfulness Using the Longest Supported Subsequence [52.27522262537075]
本稿では,文脈によって支持される請求項の最長不連続性を計算し,機械生成テキストの忠実さを評価する新しい手法を提案する。
新しい人間アノテーション付きデータセットを使用して、モデルを微調整してLongest Supported Subsequence(LSS)を生成する。
提案手法は,我々のデータセットの忠実度に対する最先端のメトリクスよりも18%向上していることを示す。
論文 参考訳(メタデータ) (2023-08-23T14:18:44Z) - SWING: Balancing Coverage and Faithfulness for Dialogue Summarization [67.76393867114923]
本稿では,自然言語推論(NLI)モデルを用いて,事実の不整合を回避し,カバレッジを向上させることを提案する。
我々は、NLIを用いて詳細なトレーニング信号を計算し、モデルがカバーされていない参照サマリーのコンテンツを生成することを奨励する。
DialogSumおよびSAMSumデータセットの実験により,提案手法の有効性が確認された。
論文 参考訳(メタデータ) (2023-01-25T09:33:11Z) - Evaluating and Improving Factuality in Multimodal Abstractive
Summarization [91.46015013816083]
そこで我々は,CLIPBERTScoreを提案する。
ゼロショットにおけるこの2つの指標の単純な組み合わせは、文書要約のための既存の事実度指標よりも高い相関性が得られることを示す。
本分析は,CLIPBERTScoreとそのコンポーネントの信頼性と高い相関性を示す。
論文 参考訳(メタデータ) (2022-11-04T16:50:40Z) - Analyzing and Evaluating Faithfulness in Dialogue Summarization [67.07947198421421]
まず,対話要約の忠実度に関するきめ細かな人間の分析を行い,生成した要約の35%以上がソース対話に忠実に一致していないことを観察する。
そこで本研究では,ルールベース変換により生成した複数選択質問を用いたモデルレベルの忠実度評価手法を提案する。
論文 参考訳(メタデータ) (2022-10-21T07:22:43Z) - TRUE: Re-evaluating Factual Consistency Evaluation [29.888885917330327]
TRUE: 多様なタスクから既存のテキストの標準化されたコレクション上での、事実整合性メトリクスの総合的な研究である。
我々の標準化により、前述した相関よりも動作可能で解釈可能なサンプルレベルのメタ評価プロトコルが実現される。
さまざまな最先端のメトリクスと11のデータセットから、大規模NLIと質問生成と回答に基づくアプローチが、強力で相補的な結果をもたらすことが分かりました。
論文 参考訳(メタデータ) (2022-04-11T10:14:35Z) - GO FIGURE: A Meta Evaluation of Factuality in Summarization [131.1087461486504]
本稿では,現実性評価指標を評価するメタ評価フレームワークGO FIGUREを紹介する。
10個の実測値のベンチマーク分析により、我々のフレームワークが堅牢で効率的な評価を提供することが明らかとなった。
また、QAメトリクスは、ドメイン間の事実性を測定する標準的なメトリクスよりも一般的に改善されているが、パフォーマンスは、質問を生成する方法に大きく依存していることも明らかにしている。
論文 参考訳(メタデータ) (2020-10-24T08:30:20Z) - Unsupervised Reference-Free Summary Quality Evaluation via Contrastive
Learning [66.30909748400023]
教師なしコントラスト学習により,参照要約を使わずに要約品質を評価することを提案する。
具体的には、BERTに基づく言語的品質と意味情報の両方をカバーする新しい指標を設計する。
ニューズルームとCNN/デイリーメールの実験では,新たな評価手法が参照サマリーを使わずに他の指標よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-05T05:04:14Z) - SueNes: A Weakly Supervised Approach to Evaluating Single-Document
Summarization via Negative Sampling [25.299937353444854]
本研究は,参照要約の存在を伴わない,弱教師付き要約評価手法に対する概念実証研究である。
既存の要約データセットの大量データは、文書と破損した参照要約とのペアリングによってトレーニングのために変換される。
論文 参考訳(メタデータ) (2020-05-13T15:40:13Z) - Learning by Semantic Similarity Makes Abstractive Summarization Better [13.324006587838522]
近年のLM, BART, およびベンチマークデータセットCNN/DMの参照要約を比較した。
興味深いことに、モデル生成サマリーは参照サマリーと比較して高いスコアを受け取る。
論文 参考訳(メタデータ) (2020-02-18T17:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。