論文の概要: MemSum: Extractive Summarization of Long Documents using Multi-step
Episodic Markov Decision Processes
- arxiv url: http://arxiv.org/abs/2107.08929v1
- Date: Mon, 19 Jul 2021 14:41:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 15:02:53.447151
- Title: MemSum: Extractive Summarization of Long Documents using Multi-step
Episodic Markov Decision Processes
- Title(参考訳): MemSum:多段階マルコフ決定過程を用いた長期文書の抽出要約
- Authors: Nianlong Gu, Elliott Ash, Richard H.R. Hahnloser
- Abstract要約: 本稿では,任意の時間ステップで濃縮された強化学習に基づく抽出要約器であるMemSumについて紹介する。
私たちのイノベーションは、このタスクで人間が直感的に使用するような要約を行う際に、より広範な情報セットを検討することです。
- 参考スコア(独自算出の注目度): 6.585259903186036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce MemSum (Multi-step Episodic Markov decision process extractive
SUMmarizer), a reinforcement-learning-based extractive summarizer enriched at
any given time step with information on the current extraction history. Similar
to previous models in this vein, MemSum iteratively selects sentences into the
summary. Our innovation is in considering a broader information set when
summarizing that would intuitively also be used by humans in this task: 1) the
text content of the sentence, 2) the global text context of the rest of the
document, and 3) the extraction history consisting of the set of sentences that
have already been extracted. With a lightweight architecture, MemSum
nonetheless obtains state-of-the-art test-set performance (ROUGE score) on long
document datasets (PubMed, arXiv, and GovReport). Supporting analysis
demonstrates that the added awareness of extraction history gives MemSum
robustness against redundancy in the source document.
- Abstract(参考訳): そこで本研究では,任意の時間段階に富んだ強化学習型抽出要約器であるmemsum(multi-step episodic markov decision process extractive summaryr)を紹介する。
以前のモデルと同様、memsumは要約文を反復的に選択する。
我々の革新は、このタスクにおいて人間が直感的に使用するような要約を行う際に、より広範な情報集合を考えることである: 1) 文章のテキスト内容、2) 文書の全体的テキストコンテキスト、3) 既に抽出された文の集合からなる抽出履歴。
軽量アーキテクチャでは、MemSumは、長いドキュメントデータセット(PubMed、arXiv、GovReport)の最先端のテストセットパフォーマンス(ROUGEスコア)を取得する。
分析の支援は、抽出履歴に対する認識が加わり、ソースドキュメントの冗長性に対するmemsumロバスト性が増すことを示しています。
関連論文リスト
- Write Summary Step-by-Step: A Pilot Study of Stepwise Summarization [48.57273563299046]
本稿では,新たな文書が提案されるたびに追加の要約を生成するステップワイド要約の課題を提案する。
追加された要約は、新たに追加されたコンテンツを要約するだけでなく、以前の要約と一貫性を持たなければならない。
SSGは,自動計測と人的評価の両面から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-06-08T05:37:26Z) - On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - GoSum: Extractive Summarization of Long Documents by Reinforcement
Learning and Graph Organized discourse state [6.4805900740861]
長文要約のための強化学習に基づく抽出モデルであるGoSumを提案する。
GoSumは入力文書ごとに異なる談話レベルから異質なグラフを構築することで状態をエンコードする。
論文要約の2つのデータセット,PubMed と arXiv のモデルを評価する。
論文 参考訳(メタデータ) (2022-11-18T14:07:29Z) - Text Summarization with Oracle Expectation [88.39032981994535]
抽出要約は、文書の中で最も重要な文を識別し、連結することによって要約を生成する。
ほとんどの要約データセットは、文書文が要約に値するかどうかを示す金のラベルを持っていない。
本稿では,ソフトな予測に基づく文ラベルを生成する,シンプルで効果的なラベル付けアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-26T14:10:08Z) - A Survey on Neural Abstractive Summarization Methods and Factual
Consistency of Summarization [18.763290930749235]
要約は、サブセット(要約)を作成するために、テキストデータの集合を計算的に短縮する過程である
既存の要約法は、抽出法と抽象法という2つのタイプに大別できる。
抽出要約器は、ソース文書からテキストスニペットを明示的に選択し、抽象要約器は、ソースで広く普及している最も健全な概念を伝えるために、新しいテキストスニペットを生成する。
論文 参考訳(メタデータ) (2022-04-20T14:56:36Z) - Reinforcing Semantic-Symmetry for Document Summarization [15.113768658584979]
文書要約は、長い文書を詳細な情報と正確な意味記述を備えた短いバージョンに凝縮する。
本稿では,文書要約のための新しいtextbfreinforcing stextbfemantic-textbfsymmetric Learning textbfmodelを提案する。
CNN/Daily MailとBigPatentの2つの大胆なベンチマークデータセットに対して、一連の実験が行われた。
論文 参考訳(メタデータ) (2021-12-14T17:41:37Z) - Leveraging Information Bottleneck for Scientific Document Summarization [26.214930773343887]
本稿では,科学的長期文書を要約するための教師なし抽出手法を提案する。
文圧縮にInformation Bottleneckの原理を用いた以前の研究に触発され、文書レベルの要約に拡張する。
論文 参考訳(メタデータ) (2021-10-04T09:43:47Z) - On Generating Extended Summaries of Long Documents [16.149617108647707]
本稿では,長論文の拡張要約を生成する新しい手法を提案する。
本手法は,文書の階層構造を利用して抽出要約モデルに組み込む。
分析の結果,提案手法は,要約文に好適な抽出確率分布を調整できることが示唆された。
論文 参考訳(メタデータ) (2020-12-28T08:10:28Z) - SupMMD: A Sentence Importance Model for Extractive Summarization using
Maximum Mean Discrepancy [92.5683788430012]
SupMMDは、カーネルの2サンプルテストと最大の相違点に基づく、ジェネリックおよび更新の要約のための新しいテクニックである。
DUC-2004 および TAC-2009 データセット上での現在の技術状況を満たしたり超えたりすることで,SupMMD の総合的および更新的要約タスクにおける有効性を示す。
論文 参考訳(メタデータ) (2020-10-06T09:26:55Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z) - At Which Level Should We Extract? An Empirical Analysis on Extractive
Document Summarization [110.54963847339775]
本研究は,全文を抽出する際,不必要な問題や冗長性が存在することを示す。
選挙区解析木に基づくサブセグメント単位の抽出を提案する。
論文 参考訳(メタデータ) (2020-04-06T13:35:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。