論文の概要: SupMMD: A Sentence Importance Model for Extractive Summarization using
Maximum Mean Discrepancy
- arxiv url: http://arxiv.org/abs/2010.02568v1
- Date: Tue, 6 Oct 2020 09:26:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:47:31.720785
- Title: SupMMD: A Sentence Importance Model for Extractive Summarization using
Maximum Mean Discrepancy
- Title(参考訳): supmmd:最大平均差を用いた抽出要約のための文重要度モデル
- Authors: Umanga Bista, Alexander Patrick Mathews, Aditya Krishna Menon, Lexing
Xie
- Abstract要約: SupMMDは、カーネルの2サンプルテストと最大の相違点に基づく、ジェネリックおよび更新の要約のための新しいテクニックである。
DUC-2004 および TAC-2009 データセット上での現在の技術状況を満たしたり超えたりすることで,SupMMD の総合的および更新的要約タスクにおける有効性を示す。
- 参考スコア(独自算出の注目度): 92.5683788430012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most work on multi-document summarization has focused on generic
summarization of information present in each individual document set. However,
the under-explored setting of update summarization, where the goal is to
identify the new information present in each set, is of equal practical
interest (e.g., presenting readers with updates on an evolving news topic). In
this work, we present SupMMD, a novel technique for generic and update
summarization based on the maximum mean discrepancy from kernel two-sample
testing. SupMMD combines both supervised learning for salience and unsupervised
learning for coverage and diversity. Further, we adapt multiple kernel learning
to make use of similarity across multiple information sources (e.g., text
features and knowledge based concepts). We show the efficacy of SupMMD in both
generic and update summarization tasks by meeting or exceeding the current
state-of-the-art on the DUC-2004 and TAC-2009 datasets.
- Abstract(参考訳): 多文書要約に関するほとんどの研究は、個々の文書集合に存在する情報の一般的な要約に焦点を当てている。
しかし、各セットに存在する新しい情報を特定することが目的である更新要約の未調査設定は、同じ実践的関心(例えば、進化するニューストピックに関する更新を読者に提示するなど)である。
本研究では,カーネル2サンプルテストからの最大平均誤差に基づいて,総括および更新要約を行う新しい手法であるsupmmdを提案する。
supmmdは、カバー範囲と多様性のために教師なし学習と教師なし学習の両方を組み合わせる。
さらに,複数の情報ソース(テキストの特徴や知識に基づく概念など)間の類似性を活用するために,複数のカーネル学習を適用する。
DUC-2004 および TAC-2009 データセット上での現在の技術状況を満たしたり超えたりすることで,SupMMD の有効性を示す。
関連論文リスト
- Write Summary Step-by-Step: A Pilot Study of Stepwise Summarization [48.57273563299046]
本稿では,新たな文書が提案されるたびに追加の要約を生成するステップワイド要約の課題を提案する。
追加された要約は、新たに追加されたコンテンツを要約するだけでなく、以前の要約と一貫性を持たなければならない。
SSGは,自動計測と人的評価の両面から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-06-08T05:37:26Z) - Embrace Divergence for Richer Insights: A Multi-document Summarization Benchmark and a Case Study on Summarizing Diverse Information from News Articles [136.84278943588652]
同一イベントを含む複数のニュース記事において遭遇する多様な情報を要約する新しい課題を提案する。
この作業を容易にするために、多様な情報を特定するためのデータ収集スキーマの概要と、DiverseSummというデータセットをキュレートした。
データセットには245のニュース記事が含まれており、各ストーリーは10のニュース記事からなり、人間公認の参照と組み合わせられる。
論文 参考訳(メタデータ) (2023-09-17T20:28:17Z) - Align and Attend: Multimodal Summarization with Dual Contrastive Losses [57.83012574678091]
マルチモーダル要約の目標は、異なるモーダルから最も重要な情報を抽出し、出力要約を形成することである。
既存の手法では、異なるモダリティ間の時間的対応の活用に失敗し、異なるサンプル間の本質的な相関を無視する。
A2Summ(Align and Attend Multimodal Summarization)は、マルチモーダル入力を効果的に整列し、参加できる統一型マルチモーダルトランスフォーマーモデルである。
論文 参考訳(メタデータ) (2023-03-13T17:01:42Z) - UniSumm and SummZoo: Unified Model and Diverse Benchmark for Few-Shot
Summarization [54.59104881168188]
textscUniSummは、複数の要約タスクで事前訓練された、統合された数ショットの要約モデルである。
textscSummZooは、スクリーンショットの要約をよりよく評価するための新しいベンチマークである。
論文 参考訳(メタデータ) (2022-11-17T18:54:47Z) - How "Multi" is Multi-Document Summarization? [15.574673241564932]
MDSデータセットの参照要約とシステム要約の両方が、実際に分散情報に基づいていることが期待されている。
「要約が分散する度合いを評価するための自動測度を提案する。」
以上の結果から,MSSデータセットは複数の文書からの情報の組み合わせをほとんど必要とせず,単一の文書が要約内容全体をカバーしていることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T10:20:09Z) - Guided Exploration of Data Summaries [24.16170440895994]
有用な要約は k 個の単体一様集合を含み、それらは集合的に多様であり、代表的である。
このような要約を見つけることは、データが非常に多様で大規模な場合、難しい作業である。
本研究では,データ要約への探索データ解析(EDA)の適用性について検討し,Eda4Sumを定式化する。
論文 参考訳(メタデータ) (2022-05-27T13:06:27Z) - Unsupervised Summarization with Customized Granularities [76.26899748972423]
本稿では,最初の教師なし多粒度要約フレームワークであるGranuSumを提案する。
異なる数のイベントを入力することで、GranuSumは教師なしの方法で複数の粒度のサマリーを生成することができる。
論文 参考訳(メタデータ) (2022-01-29T05:56:35Z) - HowSumm: A Multi-Document Summarization Dataset Derived from WikiHow
Articles [8.53502615629675]
クエリ中心のマルチドキュメント要約(qMDS)タスクのための,新たな大規模データセットであるHowSummを提案する。
このユースケースは、既存のマルチドキュメント要約(MDS)データセットでカバーされているユースケースと異なり、教育や産業のシナリオに適用できる。
データセットの作成について述べ、他の要約コーパスと区別するユニークな特徴について論じる。
論文 参考訳(メタデータ) (2021-10-07T04:44:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。