論文の概要: Modeling Endorsement for Multi-Document Abstractive Summarization
- arxiv url: http://arxiv.org/abs/2110.07844v1
- Date: Fri, 15 Oct 2021 03:55:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 13:14:07.843197
- Title: Modeling Endorsement for Multi-Document Abstractive Summarization
- Title(参考訳): 多文書抽象要約のモデル化
- Authors: Logan Lebanoff and Bingqing Wang and Zhe Feng and Fei Liu
- Abstract要約: 単一文書の要約と多文書の要約の重大な違いは、文書の中で健全なコンテンツがどのように現れるかである。
本稿では,複数文書要約における文書間補完効果とその活用をモデル化する。
提案手法は各文書から合成を生成し,他の文書から有意な内容を識別する支援者として機能する。
- 参考スコア(独自算出の注目度): 10.166639983949887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A crucial difference between single- and multi-document summarization is how
salient content manifests itself in the document(s). While such content may
appear at the beginning of a single document, essential information is
frequently reiterated in a set of documents related to a particular topic,
resulting in an endorsement effect that increases information salience. In this
paper, we model the cross-document endorsement effect and its utilization in
multiple document summarization. Our method generates a synopsis from each
document, which serves as an endorser to identify salient content from other
documents. Strongly endorsed text segments are used to enrich a neural
encoder-decoder model to consolidate them into an abstractive summary. The
method has a great potential to learn from fewer examples to identify salient
content, which alleviates the need for costly retraining when the set of
documents is dynamically adjusted. Through extensive experiments on benchmark
multi-document summarization datasets, we demonstrate the effectiveness of our
proposed method over strong published baselines. Finally, we shed light on
future research directions and discuss broader challenges of this task using a
case study.
- Abstract(参考訳): 単一文書と複数文書の要約における重要な違いは、文書に内容がどのように現れるかである。
このような内容は1つの文書の冒頭に現れることもあるが、重要な情報は特定のトピックに関連する一連の文書に頻繁に再掲載されるため、情報サレンスを増加させる支持効果をもたらす。
本稿では,複数文書要約における文書間補完効果とその活用をモデル化する。
提案手法は各文書から合成を生成し,他の文書から有意な内容を識別する支援者として機能する。
強く支持されたテキストセグメントは、神経エンコーダ-デコーダモデルを強化し、それらを抽象的な要約に統合するために使用される。
この手法は,文書の集合が動的に調整された場合に,コストのかかる再トレーニングの必要性を軽減し,より少ないサンプルから有意なコンテンツを特定することができる。
ベンチマーク多文書要約データセットの広範な実験を通じて,提案手法の有効性について実証した。
最後に,今後の研究の方向性に光を当て,ケーススタディを用いて,この課題の幅広い課題について論じる。
関連論文リスト
- Unified Multi-Modal Interleaved Document Representation for Information Retrieval [57.65409208879344]
我々は、異なるモダリティでインターリーブされた文書を均等に埋め込み、より包括的でニュアンスのある文書表現を生成する。
具体的には、テキスト、画像、テーブルの処理と統合を統一されたフォーマットと表現に統合する、近年のビジョン言語モデルの能力を活用して、これを実現する。
論文 参考訳(メタデータ) (2024-10-03T17:49:09Z) - Peek Across: Improving Multi-Document Modeling via Cross-Document
Question-Answering [49.85790367128085]
我々は,事前学習対象に答える新しいクロスドキュメント質問から,汎用的なマルチドキュメントモデルを事前学習する。
この新規なマルチドキュメントQA定式化は、クロステキスト情報関係をよりよく回復させるようモデルに指示する。
分類タスクや要約タスクに焦点を当てた従来のマルチドキュメントモデルとは異なり、事前学習対象の定式化により、短いテキスト生成と長いテキスト生成の両方を含むタスクを実行できる。
論文 参考訳(メタデータ) (2023-05-24T17:48:40Z) - Mining both Commonality and Specificity from Multiple Documents for
Multi-Document Summarization [1.4629756274247374]
多文書要約タスクでは、設計した要約者が、原文書の重要な情報をカバーする短いテキストを生成する必要がある。
本稿では,文書の階層的クラスタリングに基づくマルチドキュメント要約手法を提案する。
論文 参考訳(メタデータ) (2023-03-05T14:25:05Z) - Learning Diverse Document Representations with Deep Query Interactions
for Dense Retrieval [79.37614949970013]
そこで本研究では,問合せの深い文書表現を学習する高密度検索モデルを提案する。
本モデルでは,各文書に生成した擬似クエリをエンコードして,クエリインフォームド・マルチビュー文書表現を得る。
論文 参考訳(メタデータ) (2022-08-08T16:00:55Z) - ACM -- Attribute Conditioning for Abstractive Multi Document
Summarization [0.0]
本稿では,属性条件付きモジュールを組み込んだモデルを提案する。
このアプローチは、ベースラインのマルチドキュメント要約アプローチよりもROUGEスコアが大きく向上することを示している。
論文 参考訳(メタデータ) (2022-05-09T00:00:14Z) - Unsupervised Summarization with Customized Granularities [76.26899748972423]
本稿では,最初の教師なし多粒度要約フレームワークであるGranuSumを提案する。
異なる数のイベントを入力することで、GranuSumは教師なしの方法で複数の粒度のサマリーを生成することができる。
論文 参考訳(メタデータ) (2022-01-29T05:56:35Z) - iFacetSum: Coreference-based Interactive Faceted Summarization for
Multi-Document Exploration [63.272359227081836]
iFacetSumは、インタラクティブな要約と顔検索を統合している。
微粒なファセットは、クロスドキュメントのコア参照パイプラインに基づいて自動的に生成される。
論文 参考訳(メタデータ) (2021-09-23T20:01:11Z) - WSL-DS: Weakly Supervised Learning with Distant Supervision for Query
Focused Multi-Document Abstractive Summarization [16.048329028104643]
Query Focused Multi-Document Summarization (QF-MDS)タスクでは、ドキュメントのセットとクエリが与えられ、そこでこれらのドキュメントから要約を生成する。
このタスクの大きな課題のひとつは、ラベル付きトレーニングデータセットの可用性の欠如である。
本稿では,遠隔指導による弱教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T02:02:55Z) - Enhancing Extractive Text Summarization with Topic-Aware Graph Neural
Networks [21.379555672973975]
本稿では,グラフニューラルネットワーク(GNN)に基づく抽出要約モデルを提案する。
本モデルでは,文章選択のための文書レベルの特徴を提供する潜在トピックを発見するために,共同ニューラルトピックモデル(NTM)を統合している。
実験結果から,CNN/DMおよびNYTデータセットにおいて,本モデルがほぼ最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2020-10-13T09:30:04Z) - Leveraging Graph to Improve Abstractive Multi-Document Summarization [50.62418656177642]
我々は、文書のよく知られたグラフ表現を活用することができる、抽象的多文書要約(MDS)モデルを開発する。
本モデルでは,長い文書の要約に欠かせない文書間関係を捉えるために,文書の符号化にグラフを利用する。
また,このモデルでは,要約生成プロセスの導出にグラフを利用することが可能であり,一貫性と簡潔な要約を生成するのに有用である。
論文 参考訳(メタデータ) (2020-05-20T13:39:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。