論文の概要: Generating EDU Extracts for Plan-Guided Summary Re-Ranking
- arxiv url: http://arxiv.org/abs/2305.17779v1
- Date: Sun, 28 May 2023 17:22:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 16:47:13.880218
- Title: Generating EDU Extracts for Plan-Guided Summary Re-Ranking
- Title(参考訳): 計画的概要再配置のためのEDU抽出液の生成
- Authors: Griffin Adams, Alexander R. Fabbri, Faisal Ladhak, Kathleen McKeown,
No\'emie Elhadad
- Abstract要約: 要約候補を生成して1つの要約を返す2段階のアプローチでは、標準的な単一ステップアプローチよりもROUGEスコアを改善することができる。
これらの問題に対処する再ランク付け候補を生成するための新しい手法を設計する。
広く使われている単一文書ニュース記事コーパスにおいて,以前に公表された手法よりも大きな関連性を示した。
- 参考スコア(独自算出の注目度): 77.7752504102925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Two-step approaches, in which summary candidates are generated-then-reranked
to return a single summary, can improve ROUGE scores over the standard
single-step approach. Yet, standard decoding methods (i.e., beam search,
nucleus sampling, and diverse beam search) produce candidates with redundant,
and often low quality, content. In this paper, we design a novel method to
generate candidates for re-ranking that addresses these issues. We ground each
candidate abstract on its own unique content plan and generate distinct
plan-guided abstracts using a model's top beam. More concretely, a standard
language model (a BART LM) auto-regressively generates elemental discourse unit
(EDU) content plans with an extractive copy mechanism. The top K beams from the
content plan generator are then used to guide a separate LM, which produces a
single abstractive candidate for each distinct plan. We apply an existing
re-ranker (BRIO) to abstractive candidates generated from our method, as well
as baseline decoding methods. We show large relevance improvements over
previously published methods on widely used single document news article
corpora, with ROUGE-2 F1 gains of 0.88, 2.01, and 0.38 on CNN / Dailymail, NYT,
and Xsum, respectively. A human evaluation on CNN / DM validates these results.
Similarly, on 1k samples from CNN / DM, we show that prompting GPT-3 to follow
EDU plans outperforms sampling-based methods by 1.05 ROUGE-2 F1 points. Code to
generate and realize plans is available at
https://github.com/griff4692/edu-sum.
- Abstract(参考訳): 要約候補を生成して1つの要約を返す2段階のアプローチでは、標準的な単一ステップアプローチよりもROUGEスコアを改善することができる。
しかし、標準的な復号法(ビーム探索、核サンプリング、多種多様なビーム探索)は、冗長でしばしば低品質なコンテンツの候補を生成する。
本稿では,これらの問題に対処する候補を生成する新しい手法を設計する。
それぞれの候補を独自のコンテンツプランで抽象化し、モデルのトップビームを用いて個別の計画誘導抽象を生成する。
より具体的には、標準言語モデル(BART LM)が抽出コピー機構を備えた要素談話単位(EDU)コンテンツプランを自動回帰生成する。
次に、コンテンツプランジェネレータからの上位kビームを使用して、個別のlmをガイドし、各個別のプランに対して単一の抽象的候補を生成する。
提案手法から生成した抽象的候補とベースライン復号法に,既存のリランカ(BRIO)を適用した。
CNN/Dailymail,NYT,Xsumでは,ROUGE-2 F1が0.88,2.01,0.38,それぞれ上昇した。
CNN/DMの人間による評価は、これらの結果を検証する。
同様に、CNN/DMの1kサンプルでは、GPT-3 を EDU に追従させると、サンプリングベース法を 1.05 ROUGE-2 F1 点で上回った。
計画の生成と実現のためのコードはhttps://github.com/griff4692/edu-sumで公開されている。
関連論文リスト
- AugSumm: towards generalizable speech summarization using synthetic
labels from large language model [61.73741195292997]
抽象音声要約(SSUM)は、音声から人間に似た要約を生成することを目的としている。
従来のSSUMモデルは、主に、人間による注釈付き決定論的要約(英語版)を用いて訓練され、評価されている。
AugSummは,人間のアノテータが拡張要約を生成するためのプロキシとして,大規模言語モデル(LLM)を利用する手法である。
論文 参考訳(メタデータ) (2024-01-10T18:39:46Z) - Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - Absformer: Transformer-based Model for Unsupervised Multi-Document
Abstractive Summarization [1.066048003460524]
MDS(Multi-document summarization)とは、複数の文書のテキストを簡潔な要約に要約する作業である。
抽象MDSは、自然言語生成技術を用いて、複数の文書の一貫性と流動性を備えた要約を生成することを目的としている。
本稿では、教師なし抽象要約生成のためのトランスフォーマーに基づく新しい手法であるAbsformerを提案する。
論文 参考訳(メタデータ) (2023-06-07T21:18:23Z) - Element-aware Summarization with Large Language Models: Expert-aligned
Evaluation and Chain-of-Thought Method [35.181659789684545]
自動要約は、ソースドキュメントのキーアイデアを含む簡潔な要約を生成する。
CNN/DailyMailやBBC XSumからの引用は、主に幻覚と情報冗長性の点で騒々しい。
本稿では,LCMを段階的に生成するためにSumCoT(Slide Chain-of-Thought)手法を提案する。
実験結果から, ROUGE-L では, 最先端の微調整 PLM とゼロショット LLM を+4.33/+4.77 で上回った。
論文 参考訳(メタデータ) (2023-05-22T18:54:35Z) - Towards Abstractive Timeline Summarisation using Preference-based
Reinforcement Learning [3.6640004265358477]
本稿では,複数のニュースソースから報告されるイベントの時系列を要約する新しいパイプラインを提案する。
抽象的な要約のためのトランスフォーマーに基づくモデルは、長い文書のコヒーレントで簡潔な要約を生成する。
抽出要約は情報源に忠実であるが、読みにくく、余分な情報や不要な情報を含んでいる可能性がある。
論文 参考訳(メタデータ) (2022-11-14T18:24:13Z) - Towards Summary Candidates Fusion [26.114829566197976]
サムマフュージョンと呼ばれる第2段階抽象要約における新しいパラダイムを提案する。
いくつかの要約候補を融合させ、新しい抽象的な第2段階の要約を生成する。
本手法は,複数の要約データセットでよく機能し,融解サマリーのROUGEスコアと定性の両方を改善した。
論文 参考訳(メタデータ) (2022-10-17T06:48:05Z) - Summarization Programs: Interpretable Abstractive Summarization with
Neural Modular Trees [89.60269205320431]
現在の抽象的要約モデルは明確な解釈可能性の欠如に悩まされるか、あるいは不完全理性を与える。
本稿では,バイナリツリーの(順序付き)リストからなる解釈可能なモジュラーフレームワークであるSummarization Program (SP)を提案する。
要約プログラムは、要約文毎に1つのルートノードを含み、各要約文と文書文を個別のツリーで接続する。
論文 参考訳(メタデータ) (2022-09-21T16:50:22Z) - SummaReranker: A Multi-Task Mixture-of-Experts Re-ranking Framework for
Abstractive Summarization [26.114829566197976]
要約候補の集合上で再ランク付けを行う第2段階モデルを直接訓練することは可能であることを示す。
我々のMix-of-experts SummaRerankerは、より良い候補を選択することを学び、ベースモデルの性能を一貫して改善します。
論文 参考訳(メタデータ) (2022-03-13T05:05:10Z) - KGPT: Knowledge-Grounded Pre-Training for Data-to-Text Generation [100.79870384880333]
知識に富んだテキストを生成するための知識基盤事前学習(KGPT)を提案する。
我々は、その効果を評価するために、3つの設定、すなわち、完全教師付き、ゼロショット、少数ショットを採用します。
ゼロショット設定では、WebNLG上で30 ROUGE-L以上を達成するが、他の全てのベースラインは失敗する。
論文 参考訳(メタデータ) (2020-10-05T19:59:05Z) - SummPip: Unsupervised Multi-Document Summarization with Sentence Graph
Compression [61.97200991151141]
SummPipはマルチドキュメント要約のための教師なしの手法である。
元の文書を文グラフに変換し、言語表現と深層表現の両方を考慮に入れます。
次に、スペクトルクラスタリングを適用して複数の文のクラスタを取得し、最後に各クラスタを圧縮して最終的な要約を生成する。
論文 参考訳(メタデータ) (2020-07-17T13:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。