論文の概要: Questioning the Validity of Summarization Datasets and Improving Their
Factual Consistency
- arxiv url: http://arxiv.org/abs/2210.17378v1
- Date: Mon, 31 Oct 2022 15:04:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 17:17:57.839317
- Title: Questioning the Validity of Summarization Datasets and Improving Their
Factual Consistency
- Title(参考訳): 要約データセットの妥当性の疑問と事実整合性の改善
- Authors: Yanzhu Guo, Chlo\'e Clavel, Moussa Kamal Eddine and Michalis
Vazirgiannis
- Abstract要約: SummFCは,事実整合性を改善したフィルタされた要約データセットである。
我々は,データセットが要約システムの開発と評価のための有効なベンチマークとなるべきだと論じている。
- 参考スコア(独自算出の注目度): 14.974996886744083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The topic of summarization evaluation has recently attracted a surge of
attention due to the rapid development of abstractive summarization systems.
However, the formulation of the task is rather ambiguous, neither the
linguistic nor the natural language processing community has succeeded in
giving a mutually agreed-upon definition. Due to this lack of well-defined
formulation, a large number of popular abstractive summarization datasets are
constructed in a manner that neither guarantees validity nor meets one of the
most essential criteria of summarization: factual consistency. In this paper,
we address this issue by combining state-of-the-art factual consistency models
to identify the problematic instances present in popular summarization
datasets. We release SummFC, a filtered summarization dataset with improved
factual consistency, and demonstrate that models trained on this dataset
achieve improved performance in nearly all quality aspects. We argue that our
dataset should become a valid benchmark for developing and evaluating
summarization systems.
- Abstract(参考訳): 近年,抽象的な要約システムの急速な発展により,要約評価の話題が注目されている。
しかし、タスクの定式化は曖昧であり、言語や自然言語処理コミュニティは相互に合意された定義を与えることに成功したわけではない。
この明確に定義された定式化の欠如により、多くの一般的な抽象要約データセットが、正当性を保証せず、また要約の最も重要な基準の1つである事実整合性を満たさない方法で構築される。
本稿では、現状の事実整合性モデルを組み合わせて、一般的な要約データセットに存在する問題事例を特定する。
SummFCは、事実整合性を改善したフィルタリング要約データセットであり、このデータセットでトレーニングされたモデルは、ほぼ全ての品質面において、パフォーマンスを向上させることを実証する。
我々は,データセットが要約システムの開発と評価のための有効なベンチマークとなるべきだと論じている。
関連論文リスト
- SUMIE: A Synthetic Benchmark for Incremental Entity Summarization [6.149024468471498]
既存のデータセットは、言語モデルがエンティティの要約を段階的に更新できるかどうかを適切にテストしていません。
我々は、実世界のIES課題を明らかにするために設計された、完全に合成されたデータセットであるSUMIEを紹介する。
このデータセットは、誤ったエンティティアソシエーションや不完全な情報提示といった問題を効果的に強調する。
論文 参考訳(メタデータ) (2024-06-07T16:49:21Z) - AMRFact: Enhancing Summarization Factuality Evaluation with AMR-Driven Negative Samples Generation [57.8363998797433]
抽象的意味表現(AMR)を用いた摂動要約を生成するフレームワークであるAMRFactを提案する。
提案手法は,AMRグラフに一貫した要約を解析し,制御された事実不整合を注入して負の例を生成し,一貫性のない事実不整合要約を高い誤差型カバレッジで生成する。
論文 参考訳(メタデータ) (2023-11-16T02:56:29Z) - Correcting Diverse Factual Errors in Abstractive Summarization via
Post-Editing and Language Model Infilling [56.70682379371534]
提案手法は, 誤要約の修正において, 従来手法よりもはるかに優れていることを示す。
我々のモデルであるFactEditは、CNN/DMで11点、XSumで31点以上のファクトリティスコアを改善する。
論文 参考訳(メタデータ) (2022-10-22T07:16:19Z) - Masked Summarization to Generate Factually Inconsistent Summaries for
Improved Factual Consistency Checking [28.66287193703365]
本稿では,キー情報を隠蔽したソーステキストと参照要約を用いて,現実的に一貫性のない要約を生成することを提案する。
7つのベンチマークデータセットを用いた実験により,提案手法を用いて生成した要約に基づいて訓練された実例整合性分類器が既存モデルを上回っていることが示された。
論文 参考訳(メタデータ) (2022-05-04T12:48:49Z) - Investigating Crowdsourcing Protocols for Evaluating the Factual
Consistency of Summaries [59.27273928454995]
要約に適用される現在の事前学習モデルは、ソーステキストを誤って表現したり、外部情報を導入したりする事実上の矛盾がちである。
評価ベースのLikertスケールとランキングベースのBest-Worst Scalingプロトコルを用いた,事実整合性のためのクラウドソーシング評価フレームワークを構築した。
ランキングベースのプロトコルは、データセット間の要約品質をより信頼性の高い尺度を提供するのに対して、Likertレーティングの信頼性はターゲットデータセットと評価設計に依存する。
論文 参考訳(メタデータ) (2021-09-19T19:05:00Z) - Entity-level Factual Consistency of Abstractive Text Summarization [26.19686599842915]
抽象要約の重要な課題は、生成した要約の原文書に対する事実的一貫性を保証することである。
生成した要約の実体レベルの事実整合性を定量化するための新しいメトリクスセットを提案する。
論文 参考訳(メタデータ) (2021-02-18T03:07:28Z) - Unsupervised Opinion Summarization with Content Planning [58.5308638148329]
要約モデルにコンテンツプランニングを明示的に組み込むことで、より高い品質のアウトプットが得られることを示す。
また、より自然な合成データセットを作成し、実世界の文書と要約のペアに似ている。
当社のアプローチは,情報的,一貫性,流動的な要約を生成する上で,競争モデルよりも優れています。
論文 参考訳(メタデータ) (2020-12-14T18:41:58Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Enhancing Factual Consistency of Abstractive Summarization [57.67609672082137]
ファクトアウェアな要約モデル FASum を提案し,実情関係を抽出し,要約生成プロセスに統合する。
次に,既存のシステムから生成した要約から事実誤りを自動的に補正する事実補正モデルFCを設計する。
論文 参考訳(メタデータ) (2020-03-19T07:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。