論文の概要: AgreeSum: Agreement-Oriented Multi-Document Summarization
- arxiv url: http://arxiv.org/abs/2106.02278v1
- Date: Fri, 4 Jun 2021 06:17:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 15:09:13.656659
- Title: AgreeSum: Agreement-Oriented Multi-Document Summarization
- Title(参考訳): agreementsum: 合意指向のマルチドキュメント要約
- Authors: Richard Yuanzhe Pang, Adam D. Lelkes, Vinh Q. Tran, Cong Yu
- Abstract要約: 記事の集合が与えられた場合、ゴールはすべての入力記事に共通かつ忠実な情報を表す抽象的な要約を提供することである。
我々は、AgreeSumのデータセットを作成し、データセット内のクラスタのサブセットについて、記事の要約関係に関するアノテーションを提供します。
- 参考スコア(独自算出の注目度): 3.4743618614284113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We aim to renew interest in a particular multi-document summarization (MDS)
task which we call AgreeSum: agreement-oriented multi-document summarization.
Given a cluster of articles, the goal is to provide abstractive summaries that
represent information common and faithful to all input articles. Given the lack
of existing datasets, we create a dataset for AgreeSum, and provide annotations
on article-summary entailment relations for a subset of the clusters in the
dataset. We aim to create strong baselines for the task by applying the
top-performing pretrained single-document summarization model PEGASUS onto
AgreeSum, leveraging both annotated clusters by supervised losses, and
unannotated clusters by T5-based entailment-related and language-related
losses. Compared to other baselines, both automatic evaluation and human
evaluation show better article-summary and cluster-summary entailment in
generated summaries. On a separate note, we hope that our article-summary
entailment annotations contribute to the community's effort in improving
abstractive summarization faithfulness.
- Abstract(参考訳): 我々は,AgreeSumと呼ばれる,特定のマルチドキュメント要約(MDS)タスクに対する関心を新たにすることを目指している。
記事の集まりが与えられると、目標はすべての入力記事に共通で忠実な情報を表す抽象的な要約を提供することである。
既存のデータセットが不足しているため、AgreeSum用のデータセットを作成し、データセット内のクラスタのサブセットに関する記事と記事のentailment関係に関するアノテーションを提供します。
我々は,トップパフォーマンスの単一文書要約モデルPEGASUSをAgreeSumに適用し,教師付き損失によるアノテートクラスタと,T5ベースのエンタテインメント関連および言語関連損失によるアノテートクラスタの両方を活用することにより,タスクのための強力なベースラインを構築することを目指している。
他のベースラインと比較すると、自動評価とヒューマン評価は、生成したサマリーにおいて、より優れた記事要約とクラスタ要約を示す。
別途,本稿の要約アノテーションが,抽象的な要約の忠実性向上へのコミュニティの取り組みに寄与することを願っている。
関連論文リスト
- Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - Write Summary Step-by-Step: A Pilot Study of Stepwise Summarization [48.57273563299046]
本稿では,新たな文書が提案されるたびに追加の要約を生成するステップワイド要約の課題を提案する。
追加された要約は、新たに追加されたコンテンツを要約するだけでなく、以前の要約と一貫性を持たなければならない。
SSGは,自動計測と人的評価の両面から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-06-08T05:37:26Z) - JADS: A Framework for Self-supervised Joint Aspect Discovery and Summarization [3.992091862806936]
私たちのソリューションはトピックの発見と要約をひとつのステップに統合します。
テキストデータから,JADS(Joint Aspect Discovery and Summarization Algorithm)が入力からアスペクトを検出する。
提案手法は,地上の真理と高いセマンティックアライメントを実現し,現実的である。
論文 参考訳(メタデータ) (2024-05-28T23:01:57Z) - GUMsley: Evaluating Entity Salience in Summarization for 12 English
Genres [14.37990666928991]
GUMsleyは、12のジャンルの英語テキストに対して、名前付きおよび名前なしの敬意的エンティティを全てカバーする最初のエンティティ・サリエンス・データセットである。
いくつかのモデルアーキテクチャに対して健全なエンティティを予測または提供することにより、パフォーマンスが向上し、高品質なサマリーの導出に役立つことを示す。
論文 参考訳(メタデータ) (2024-01-31T16:30:50Z) - On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - LLM Based Multi-Document Summarization Exploiting Main-Event Biased
Monotone Submodular Content Extraction [42.171703872560286]
マルチドキュメントの要約は、その固有の主観的バイアスのために難しい課題である。
我々は,関連ニュース資料群の主要イベントに着目し,ニュース要約の客観性を高めることを目的としている。
論文 参考訳(メタデータ) (2023-10-05T09:38:09Z) - UniSumm and SummZoo: Unified Model and Diverse Benchmark for Few-Shot
Summarization [54.59104881168188]
textscUniSummは、複数の要約タスクで事前訓練された、統合された数ショットの要約モデルである。
textscSummZooは、スクリーンショットの要約をよりよく評価するための新しいベンチマークである。
論文 参考訳(メタデータ) (2022-11-17T18:54:47Z) - ACM -- Attribute Conditioning for Abstractive Multi Document
Summarization [0.0]
本稿では,属性条件付きモジュールを組み込んだモデルを提案する。
このアプローチは、ベースラインのマルチドキュメント要約アプローチよりもROUGEスコアが大きく向上することを示している。
論文 参考訳(メタデータ) (2022-05-09T00:00:14Z) - EntSUM: A Data Set for Entity-Centric Summarization [27.845014142019917]
制御可能な要約は、ユーザが指定した側面や好みを考慮に入れた要約を提供することを目的としている。
本稿では、制御可能な要約のための人間アノテーション付きデータセットsetSUMを紹介し、制御の側面として名前付きエンティティに焦点を当てる。
論文 参考訳(メタデータ) (2022-04-05T13:45:54Z) - Unsupervised Summarization with Customized Granularities [76.26899748972423]
本稿では,最初の教師なし多粒度要約フレームワークであるGranuSumを提案する。
異なる数のイベントを入力することで、GranuSumは教師なしの方法で複数の粒度のサマリーを生成することができる。
論文 参考訳(メタデータ) (2022-01-29T05:56:35Z) - Understanding the Extent to which Summarization Evaluation Metrics
Measure the Information Quality of Summaries [74.28810048824519]
ROUGEとBERTScoreのトークンアライメントを分析し、要約を比較する。
それらのスコアは、情報の重複を測定するものとしては解釈できない、と我々は主張する。
論文 参考訳(メタデータ) (2020-10-23T15:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。