論文の概要: Factorizing Content and Budget Decisions in Abstractive Summarization of
Long Documents by Sampling Summary Views
- arxiv url: http://arxiv.org/abs/2205.12486v1
- Date: Wed, 25 May 2022 04:27:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 13:56:56.061135
- Title: Factorizing Content and Budget Decisions in Abstractive Summarization of
Long Documents by Sampling Summary Views
- Title(参考訳): 要約をサンプリングした長文要約における内容と予算決定の因果化
- Authors: Marcio Fonseca, Yftah Ziser, Shay B. Cohen
- Abstract要約: 本手法は,エネルギー関数による要約を2段階に分解する。
長期文書要約のための複数のベンチマークでROUGEスコアが大幅に向上する。
私たちのモデルはドメイン適応に有効です。
- 参考スコア(独自算出の注目度): 30.495560973512358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We argue that disentangling content selection from the budget used to cover
salient content improves the performance and applicability of abstractive
summarizers. Our method, FactorSum, does this disentanglement by factorizing
summarization into two steps through an energy function: (1) generation of
abstractive summary views; (2) combination of these views into a final summary,
following a budget and content guidance. This guidance may come from different
sources, including from an advisor model such as BART or BigBird, or in oracle
mode -- from the reference. This factorization achieves significantly higher
ROUGE scores on multiple benchmarks for long document summarization, namely
PubMed, arXiv, and GovReport. Most notably, our model is effective for domain
adaptation. When trained only on PubMed samples, it achieves a 46.29 ROUGE-1
score on arXiv, which indicates a strong performance due to more flexible
budget adaptation and content selection less dependent on domain-specific
textual structure.
- Abstract(参考訳): 我々は,コンテンツ選択を高度コンテンツをカバーする予算から切り離すことで,要約的要約の性能と適用性が向上すると主張している。
提案手法であるFacterSumは,(1)抽象的な要約ビューの生成,(2)予算とコンテンツガイダンスに従って,これらのビューを最終要約に組み合わせることにより,要約をエネルギー機能を通じて2つのステップに分解する。
このガイダンスは、BARTやBigBirdといったアドバイザモデルや、参照からのオラクルモードなど、さまざまなソースから取得することができる。
この因子化は、長期文書要約のための複数のベンチマーク、すなわちPubMed、arXiv、GovReportにおいて、ROUGEスコアを著しく向上させる。
私たちのモデルはドメイン適応に有効です。
PubMedサンプルのみをトレーニングすると、arXiv上で46.29 ROUGE-1スコアを達成し、より柔軟な予算適応とコンテンツ選択がドメイン固有のテキスト構造に依存しないため、高いパフォーマンスを示す。
関連論文リスト
- Flexible and Adaptable Summarization via Expertise Separation [59.26639426529827]
熟練した要約モデルは、柔軟性と適応性の両方を示すべきである。
我々は,Mixture-of-Expert SummarizationアーキテクチャであるMoeSummを提案する。
我々のモデルでは、一般とドメイン固有の要約能力の分離は、顕著な柔軟性と適応性を与えている。
論文 参考訳(メタデータ) (2024-06-08T05:31:19Z) - Salience Allocation as Guidance for Abstractive Summarization [61.31826412150143]
本稿では, サリエンセ・サリエンス・ガイダンス(SEASON, SaliencE Allocation as Guidance for Abstractive SummarizatiON)を用いた新しい要約手法を提案する。
SEASONは、サリエンス予測の割り当てを利用して抽象的な要約を導き、異なる抽象性のある記事に順応する。
論文 参考訳(メタデータ) (2022-10-22T02:13:44Z) - ACM -- Attribute Conditioning for Abstractive Multi Document
Summarization [0.0]
本稿では,属性条件付きモジュールを組み込んだモデルを提案する。
このアプローチは、ベースラインのマルチドキュメント要約アプローチよりもROUGEスコアが大きく向上することを示している。
論文 参考訳(メタデータ) (2022-05-09T00:00:14Z) - Improving Multi-Document Summarization through Referenced Flexible
Extraction with Credit-Awareness [21.037841262371355]
MDS(Multi-Document Summarization)における注目すべき課題は、入力の非常に長い長さである。
本稿では,この問題を克服するための抽出・抽出・吸収変換器フレームワークを提案する。
擬似抽出オラクルにない文の不等式の重要性をモデルに認識させる損失重み付け機構を提案する。
論文 参考訳(メタデータ) (2022-05-04T04:40:39Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - Unsupervised Summarization with Customized Granularities [76.26899748972423]
本稿では,最初の教師なし多粒度要約フレームワークであるGranuSumを提案する。
異なる数のイベントを入力することで、GranuSumは教師なしの方法で複数の粒度のサマリーを生成することができる。
論文 参考訳(メタデータ) (2022-01-29T05:56:35Z) - RetrievalSum: A Retrieval Enhanced Framework for Abstractive
Summarization [25.434558112121778]
本稿では,高密度Retriever と Summarizer を組み合わせた新しい検索強化抽象要約フレームワークを提案する。
提案手法は,複数のドメインにまたがる広範囲な要約データセットと,BERTとBARTの2つのバックボーンモデルで検証する。
その結果, ROUGE-1 スコアの1.384.66 倍の精度向上が得られた。
論文 参考訳(メタデータ) (2021-09-16T12:52:48Z) - Controllable Abstractive Dialogue Summarization with Sketch Supervision [56.59357883827276]
本モデルは,最大50.79のROUGE-Lスコアを持つ最大対話要約コーパスSAMSumの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-28T19:05:36Z) - BASS: Boosting Abstractive Summarization with Unified Semantic Graph [49.48925904426591]
BASSは、統合されたセマンティックグラフに基づく抽象的な要約を促進するためのフレームワークである。
文書表現と要約生成の両方を改善するために,グラフベースのエンコーダデコーダモデルを提案する。
実験結果から,提案アーキテクチャは長期文書および複数文書要約タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2021-05-25T16:20:48Z) - EASE: Extractive-Abstractive Summarization with Explanations [18.046254486733186]
情報ボトルネック原理に基づく説明可能な要約システムを提案する。
人間が長い文書をまとめるために2段階の枠組みを使用するという以前の研究に触発されて、私たちのフレームワークは最初に説明として事前に定義された証拠の量を抽出します。
生成した要約の質を著しく犠牲にすることなく、我々のフレームワークからの説明は単純なベースラインよりも適切であることを示す。
論文 参考訳(メタデータ) (2021-05-14T17:45:06Z) - Topic-Guided Abstractive Text Summarization: a Joint Learning Approach [19.623946402970933]
本稿では,抽象テキスト要約のための新しいアプローチ,トピックガイドによる抽象要約を提案する。
ニューラルネットワークをTransformerベースのシーケンス・ツー・シーケンス(seq2seq)モデルに結合学習フレームワークに組み込むことが目的だ。
論文 参考訳(メタデータ) (2020-10-20T14:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。