論文の概要: AREDSUM: Adaptive Redundancy-Aware Iterative Sentence Ranking for
Extractive Document Summarization
- arxiv url: http://arxiv.org/abs/2004.06176v2
- Date: Sat, 3 Apr 2021 02:44:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 00:03:42.709335
- Title: AREDSUM: Adaptive Redundancy-Aware Iterative Sentence Ranking for
Extractive Document Summarization
- Title(参考訳): aredsum:適応冗長性-抽出文書要約のための反復文ランキング
- Authors: Keping Bi, Rahul Jha, W. Bruce Croft, Asli Celikyilmaz
- Abstract要約: 冗長性を考慮した抽出要約システムは、要約に含まれる文の冗長性を評価する。
従来の研究は、ニューラルシークエンス生成モデルを用いた共同スコアリングと文の選択の有効性を示している。
文選択時のサリエンスと新規性を共同で検討するAREDSUM-SEQと、まずサリエンスをスコアする2ステップのAREDSUM-CTXと、サリエンスと冗長性のバランスを学習するAREDSUM-CTXの2つの適応学習モデルを提案する。
- 参考スコア(独自算出の注目度): 46.00136909474304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Redundancy-aware extractive summarization systems score the redundancy of the
sentences to be included in a summary either jointly with their salience
information or separately as an additional sentence scoring step. Previous work
shows the efficacy of jointly scoring and selecting sentences with neural
sequence generation models. It is, however, not well-understood if the gain is
due to better encoding techniques or better redundancy reduction approaches.
Similarly, the contribution of salience versus diversity components on the
created summary is not studied well. Building on the state-of-the-art encoding
methods for summarization, we present two adaptive learning models: AREDSUM-SEQ
that jointly considers salience and novelty during sentence selection; and a
two-step AREDSUM-CTX that scores salience first, then learns to balance
salience and redundancy, enabling the measurement of the impact of each aspect.
Empirical results on CNN/DailyMail and NYT50 datasets show that by modeling
diversity explicitly in a separate step, AREDSUM-CTX achieves significantly
better performance than AREDSUM-SEQ as well as state-of-the-art extractive
summarization baselines.
- Abstract(参考訳): 冗長性対応抽出要約システムは、要約に含まれる文の冗長性を、そのサリエンス情報と併用するか、追加の文採点ステップとして別々にスコアする。
従来の研究は、ニューラルシーケンス生成モデルを用いた共同採点と文の選択の有効性を示している。
しかし、より優れた符号化技術やより良い冗長性削減アプローチによって得られる場合、十分に理解されていない。
同様に、生成した要約に対するサリエンスと多様性成分の寄与はよく研究されていない。
要約のための最先端の符号化法を基礎として,文選択時にサルデンスとノベルティを共同で考慮した aredsum-seq と,まずサルナンスを得点し,その後サルナンスと冗長性のバランスをとる 2段階の aredsum-ctx という2つの適応学習モデルを提案する。
cnn/dailymailとnyt50データセットでの実証結果は、aredsum-ctxがaredsum-seqや最先端の抽出要約ベースラインよりも大幅に優れたパフォーマンスを達成していることを示している。
関連論文リスト
- Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - Enhancing Coherence of Extractive Summarization with Multitask Learning [40.349019691412465]
本研究では,コヒーレンス向上を伴う抽出要約のためのマルチタスク学習アーキテクチャを提案する。
アーキテクチャは、抽出要約器とコヒーレント判別器モジュールとを含む。
実験の結果,提案手法は抽出した要約文の連続文の割合を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2023-05-22T09:20:58Z) - DiffuSum: Generation Enhanced Extractive Summarization with Diffusion [14.930704950433324]
抽出要約は、ソース文書から直接文章を抽出することで要約を形成することを目的としている。
本稿では,抽出要約のための新しいパラダイムであるDiffuSumを提案する。
実験結果から, ROUGEスコアが44.83/22.56/40.56$のCNN/DailyMailにおけるDiffuSumの抽出結果が得られた。
論文 参考訳(メタデータ) (2023-05-02T19:09:16Z) - Correcting Diverse Factual Errors in Abstractive Summarization via
Post-Editing and Language Model Infilling [56.70682379371534]
提案手法は, 誤要約の修正において, 従来手法よりもはるかに優れていることを示す。
我々のモデルであるFactEditは、CNN/DMで11点、XSumで31点以上のファクトリティスコアを改善する。
論文 参考訳(メタデータ) (2022-10-22T07:16:19Z) - COLO: A Contrastive Learning based Re-ranking Framework for One-Stage
Summarization [84.70895015194188]
コントラスト学習に基づく一段階要約フレームワークであるCOLOを提案する。
COLOはCNN/DailyMailベンチマークの1段階システムの抽出と抽象化結果を44.58と46.33ROUGE-1スコアに引き上げた。
論文 参考訳(メタデータ) (2022-09-29T06:11:21Z) - Bengali Abstractive News Summarization(BANS): A Neural Attention
Approach [0.8793721044482612]
本稿では,エンコーダ・デコーダに着目したSeq2seqベースのLong Short-Term Memory(LSTM)ネットワークモデルを提案する。
提案システムでは,単語の長い列を人文や人文で生成する,局所的な注意に基づくモデルを構築している。
また,Bangla.bdnews24.com1から収集した19k以上の記事とそれに対応する人文要約のデータセットも作成した。
論文 参考訳(メタデータ) (2020-12-03T08:17:31Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Exploring Explainable Selection to Control Abstractive Summarization [51.74889133688111]
説明可能性を重視した新しいフレームワークを開発する。
新しいペアワイズ行列は、文の相互作用、中心性、属性スコアをキャプチャする。
コンストラクタ内の文分割アテンション機構は、最終要約が所望のコンテンツを強調することを保証する。
論文 参考訳(メタデータ) (2020-04-24T14:39:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。