論文の概要: A Training-free and Reference-free Summarization Evaluation Metric via
Centrality-weighted Relevance and Self-referenced Redundancy
- arxiv url: http://arxiv.org/abs/2106.13945v1
- Date: Sat, 26 Jun 2021 05:11:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 18:13:11.062423
- Title: A Training-free and Reference-free Summarization Evaluation Metric via
Centrality-weighted Relevance and Self-referenced Redundancy
- Title(参考訳): 集中度重み付けと自己参照冗長性による無訓練・無基準要約評価基準
- Authors: Wang Chen, Piji Li, Irwin King
- Abstract要約: トレーニング不要かつ参照不要な要約評価指標を提案する。
我々の測定基準は、集中度重み付き関連度スコアと自己参照冗長度スコアからなる。
提案手法は,複数文書と単一文書の要約評価において,既存の手法よりも大幅に優れる。
- 参考スコア(独自算出の注目度): 60.419107377879925
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, reference-based and supervised summarization evaluation
metrics have been widely explored. However, collecting human-annotated
references and ratings are costly and time-consuming. To avoid these
limitations, we propose a training-free and reference-free summarization
evaluation metric. Our metric consists of a centrality-weighted relevance score
and a self-referenced redundancy score. The relevance score is computed between
the pseudo reference built from the source document and the given summary,
where the pseudo reference content is weighted by the sentence centrality to
provide importance guidance. Besides an $F_1$-based relevance score, we also
design an $F_\beta$-based variant that pays more attention to the recall score.
As for the redundancy score of the summary, we compute a self-masked similarity
score with the summary itself to evaluate the redundant information in the
summary. Finally, we combine the relevance and redundancy scores to produce the
final evaluation score of the given summary. Extensive experiments show that
our methods can significantly outperform existing methods on both
multi-document and single-document summarization evaluation.
- Abstract(参考訳): 近年,参照ベースおよび教師付き要約評価指標が広く研究されている。
しかし、人間による注釈付き参照と評価の収集はコストと時間を要する。
これらの制限を回避するため、トレーニング不要かつ参照不要な要約評価指標を提案する。
本尺度は,集中度重み付き関連スコアと自己参照冗長スコアからなる。
関連スコアは、ソース文書から構築された擬似参照と所定の要約との間に算出され、擬似参照内容は文中心性によって重み付けされ、重要ガイダンスを提供する。
F_1$ベースの関連スコアに加えて、リコールスコアにもっと注意を払う$F_\beta$ベースの変種も設計します。
要約の冗長性スコアについては,要約自体と自己マスクによる類似度スコアを算出し,要約の冗長性を評価する。
最後に、関連性と冗長性のスコアを組み合わせて、与えられた要約の最終的な評価スコアを生成する。
大規模な実験により,本手法は,複数文書と単一文書の要約評価において,既存の手法を著しく上回る結果が得られた。
関連論文リスト
- Evaluating and Improving Factuality in Multimodal Abstractive
Summarization [91.46015013816083]
そこで我々は,CLIPBERTScoreを提案する。
ゼロショットにおけるこの2つの指標の単純な組み合わせは、文書要約のための既存の事実度指標よりも高い相関性が得られることを示す。
本分析は,CLIPBERTScoreとそのコンポーネントの信頼性と高い相関性を示す。
論文 参考訳(メタデータ) (2022-11-04T16:50:40Z) - Improving abstractive summarization with energy-based re-ranking [4.311978285976062]
本稿では、これらの指標の1つまたは1つの組み合わせに従って要約を並べ替えることを学ぶエネルギーベースモデルを提案する。
我々は、エネルギーベースのリランカのトレーニングにいくつかの指標を用いて実験を行い、予測されたサマリーによって達成されるスコアを一貫して改善することを示す。
論文 参考訳(メタデータ) (2022-10-27T15:43:36Z) - Towards Interpretable Summary Evaluation via Allocation of Contextual
Embeddings to Reference Text Topics [1.5749416770494706]
多面的解釈可能な要約評価法(MISEM)は、要約の文脈トークンの埋め込みを、参照テキストで特定されたセマンティックトピックに割り当てることに基づいている。
MISEMはTAC'08データセット上の人間の判断と有望な.404ピアソン相関を達成している。
論文 参考訳(メタデータ) (2022-10-25T17:09:08Z) - Comparing Methods for Extractive Summarization of Call Centre Dialogue [77.34726150561087]
そこで本稿では,これらの手法を用いて呼の要約を生成し,客観的に評価することにより,実験的な比較を行った。
TopicSum と Lead-N は他の要約法よりも優れており,BERTSum は主観的評価と客観的評価の両方で比較的低いスコアを得た。
論文 参考訳(メタデータ) (2022-09-06T13:16:02Z) - SNaC: Coherence Error Detection for Narrative Summarization [73.48220043216087]
SNaCは長文の微粒化アノテーションに根ざした物語コヒーレンス評価フレームワークである。
本稿では,生成した物語要約におけるコヒーレンスエラーの分類法を開発し,150冊の本や映画の脚本要約にまたがる6.6k文のスパンレベルアノテーションを収集する。
我々の研究は、最先端の要約モデルによって生成されるコヒーレンスエラーの最初の特徴と、群衆アノテータからコヒーレンス判断を引き出すためのプロトコルを提供する。
論文 参考訳(メタデータ) (2022-05-19T16:01:47Z) - Understanding the Extent to which Summarization Evaluation Metrics
Measure the Information Quality of Summaries [74.28810048824519]
ROUGEとBERTScoreのトークンアライメントを分析し、要約を比較する。
それらのスコアは、情報の重複を測定するものとしては解釈できない、と我々は主張する。
論文 参考訳(メタデータ) (2020-10-23T15:55:15Z) - Unsupervised Reference-Free Summary Quality Evaluation via Contrastive
Learning [66.30909748400023]
教師なしコントラスト学習により,参照要約を使わずに要約品質を評価することを提案する。
具体的には、BERTに基づく言語的品質と意味情報の両方をカバーする新しい指標を設計する。
ニューズルームとCNN/デイリーメールの実験では,新たな評価手法が参照サマリーを使わずに他の指標よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-05T05:04:14Z) - SueNes: A Weakly Supervised Approach to Evaluating Single-Document
Summarization via Negative Sampling [25.299937353444854]
本研究は,参照要約の存在を伴わない,弱教師付き要約評価手法に対する概念実証研究である。
既存の要約データセットの大量データは、文書と破損した参照要約とのペアリングによってトレーニングのために変換される。
論文 参考訳(メタデータ) (2020-05-13T15:40:13Z) - Reference and Document Aware Semantic Evaluation Methods for Korean
Language Summarization [6.826626737986031]
本稿では,参照要約と原文書の意味を反映した評価指標を提案する。
次に,人間の判断とメトリクスの相関性を改善する手法を提案する。
論文 参考訳(メタデータ) (2020-04-29T08:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。