論文の概要: Unsupervised Summarization with Customized Granularities
- arxiv url: http://arxiv.org/abs/2201.12502v1
- Date: Sat, 29 Jan 2022 05:56:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 16:10:05.945485
- Title: Unsupervised Summarization with Customized Granularities
- Title(参考訳): 粒度をカスタマイズした教師なし要約
- Authors: Ming Zhong, Yang Liu, Suyu Ge, Yuning Mao, Yizhu Jiao, Xingxing Zhang,
Yichong Xu, Chenguang Zhu, Michael Zeng, Jiawei Han
- Abstract要約: 本稿では,最初の教師なし多粒度要約フレームワークであるGranuSumを提案する。
異なる数のイベントを入力することで、GranuSumは教師なしの方法で複数の粒度のサマリーを生成することができる。
- 参考スコア(独自算出の注目度): 76.26899748972423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text summarization is a personalized and customized task, i.e., for one
document, users often have different preferences for the summary. As a key
aspect of customization in summarization, granularity is used to measure the
semantic coverage between summary and source document. Coarse-grained summaries
can only contain the most central event in the original text, while
fine-grained summaries cover more sub-events and corresponding details.
However, previous studies mostly develop systems in the single-granularity
scenario. And models that can generate summaries with customizable semantic
coverage still remain an under-explored topic. In this paper, we propose the
first unsupervised multi-granularity summarization framework, GranuSum. We take
events as the basic semantic units of the source documents and propose to rank
these events by their salience. We also develop a model to summarize input
documents with given events as anchors and hints. By inputting different
numbers of events, GranuSum is capable of producing multi-granular summaries in
an unsupervised manner. Meanwhile, to evaluate multi-granularity summarization
models, we annotate a new benchmark GranuDUC, in which we write multiple
summaries of different granularities for each document cluster. Experimental
results confirm the substantial superiority of GranuSum on multi-granularity
summarization over several baseline systems. Furthermore, by experimenting on
conventional unsupervised abstractive summarization tasks, we find that
GranuSum, by exploiting the event information, can also achieve new
state-of-the-art results under this scenario, outperforming strong baselines.
- Abstract(参考訳): テキスト要約はパーソナライズされ、カスタマイズされたタスクである。例えば、1つのドキュメントでは、ユーザーはサマリに対して異なる好みを持つことが多い。
要約におけるカスタマイズの重要な側面として、要約とソースドキュメント間のセマンティックカバレッジを測定するために粒度が用いられる。
粗粒の要約は原文で最も中心的な出来事のみを含むことができ、細粒の要約はより多くのサブイベントとそれに対応する詳細をカバーする。
しかし、以前の研究では、主に単一粒度シナリオでシステムを開発する。
そして、カスタマイズ可能なセマンティクスカバレッジでサマリーを生成するモデルはまだ未検討のトピックである。
本稿では,最初の教師なしマルチグラニュラリティ要約フレームワークであるGranuSumを提案する。
我々は、イベントをソース文書の基本的意味単位として捉え、これらのイベントをそれらのサリエンスによってランク付けすることを提案する。
また,入力文書に与えられたイベントをアンカーとヒントとして要約するモデルを開発した。
異なる数のイベントを入力することで、GranuSumは教師なしの方法で複数の粒度のサマリーを生成することができる。
一方,マルチグラニュラリティ要約モデルを評価するために,文書クラスタ毎に異なる粒度の複数の要約を記述する新しいベンチマークgranuducをアノテートする。
複数のベースライン系上での多粒度要約におけるGranuSumの実質的な優越性を検証する実験結果が得られた。
さらに,従来の教師なし抽象要約タスクを実験することにより,イベント情報を活用することで,新たな最先端結果が得られ,強力なベースラインを上回ることを見出した。
関連論文リスト
- Write Summary Step-by-Step: A Pilot Study of Stepwise Summarization [48.57273563299046]
本稿では,新たな文書が提案されるたびに追加の要約を生成するステップワイド要約の課題を提案する。
追加された要約は、新たに追加されたコンテンツを要約するだけでなく、以前の要約と一貫性を持たなければならない。
SSGは,自動計測と人的評価の両面から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-06-08T05:37:26Z) - JADS: A Framework for Self-supervised Joint Aspect Discovery and Summarization [3.992091862806936]
私たちのソリューションはトピックの発見と要約をひとつのステップに統合します。
テキストデータから,JADS(Joint Aspect Discovery and Summarization Algorithm)が入力からアスペクトを検出する。
提案手法は,地上の真理と高いセマンティックアライメントを実現し,現実的である。
論文 参考訳(メタデータ) (2024-05-28T23:01:57Z) - Event-Keyed Summarization [46.521305453350635]
イベントキーの要約(EKS)は、従来の要約と文書レベルのイベント抽出を結合する新しいタスクである。
本稿では,従来のMUC-4データセットのすべての事象を要約したMUCSUMというデータセットを提案する。
EKSを従来の要約や構造からテクストへの要約に還元するアブレーションは、ターゲットイベントの劣るサマリーをもたらすことを示す。
論文 参考訳(メタデータ) (2024-02-10T15:32:53Z) - UniSumm and SummZoo: Unified Model and Diverse Benchmark for Few-Shot
Summarization [54.59104881168188]
textscUniSummは、複数の要約タスクで事前訓練された、統合された数ショットの要約モデルである。
textscSummZooは、スクリーンショットの要約をよりよく評価するための新しいベンチマークである。
論文 参考訳(メタデータ) (2022-11-17T18:54:47Z) - Zero-Shot On-the-Fly Event Schema Induction [61.91468909200566]
本稿では,大規模な言語モデルを用いて,高レベルなイベント定義,特定のイベント,引数,それらの関係を予測・付与するソースドキュメントを生成する手法を提案する。
我々のモデルを用いて、任意のトピックに関する完全なスキーマを、手動のデータ収集、すなわちゼロショットの方法で、オンザフライで生成することができる。
論文 参考訳(メタデータ) (2022-10-12T14:37:00Z) - Text Summarization with Latent Queries [60.468323530248945]
本稿では,LaQSumについて紹介する。LaQSumは,既存の問合せ形式と抽象的な要約のための文書から遅延クエリを学習する,最初の統一テキスト要約システムである。
本システムでは, 潜伏クエリモデルと条件付き言語モデルとを協調的に最適化し, ユーザがテスト時に任意のタイプのクエリをプラグイン・アンド・プレイできるようにする。
本システムでは,クエリタイプ,文書設定,ターゲットドメインの異なる要約ベンチマークにおいて,強力な比較システムの性能を強く向上させる。
論文 参考訳(メタデータ) (2021-05-31T21:14:58Z) - An Enhanced MeanSum Method For Generating Hotel Multi-Review
Summarizations [0.06091702876917279]
マルチアスペクトマーカ(MAM)をコンテンツセレクタとして使用し、マルチアスペクトでこの問題に対処する。
また,生成した要約の長さを制御する正規化器を提案する。
改良されたモデルでは,元のMeansum法よりも高いROUGE,知覚精度が得られる。
論文 参考訳(メタデータ) (2020-12-07T13:16:01Z) - SupMMD: A Sentence Importance Model for Extractive Summarization using
Maximum Mean Discrepancy [92.5683788430012]
SupMMDは、カーネルの2サンプルテストと最大の相違点に基づく、ジェネリックおよび更新の要約のための新しいテクニックである。
DUC-2004 および TAC-2009 データセット上での現在の技術状況を満たしたり超えたりすることで,SupMMD の総合的および更新的要約タスクにおける有効性を示す。
論文 参考訳(メタデータ) (2020-10-06T09:26:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。