論文の概要: A New Approach to Overgenerating and Scoring Abstractive Summaries
- arxiv url: http://arxiv.org/abs/2104.01726v1
- Date: Mon, 5 Apr 2021 00:29:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:42:45.178041
- Title: A New Approach to Overgenerating and Scoring Abstractive Summaries
- Title(参考訳): 要約要約の過剰生成とスコアリングに対する新しいアプローチ
- Authors: Kaiqiang Song and Bingqing Wang and Zhe Feng and Fei Liu
- Abstract要約: ステージ1ではソーステキストから多様な候補要約を生成し,ステージ2では許容候補をスコア付けして選択する2段階戦略を提案する。
私達の発電機はスペースが限られているとき特に適している要約の長さの精密な制御を与えます。
我々のセレクタは、最適な要約長を予測し、元のテキストに忠実さを特に強調するように設計されている。
- 参考スコア(独自算出の注目度): 9.060597430218378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new approach to generate multiple variants of the target summary
with diverse content and varying lengths, then score and select admissible ones
according to users' needs. Abstractive summarizers trained on single reference
summaries may struggle to produce outputs that achieve multiple desirable
properties, i.e., capturing the most important information, being faithful to
the original, grammatical and fluent. In this paper, we propose a two-staged
strategy to generate a diverse set of candidate summaries from the source text
in stage one, then score and select admissible ones in stage two. Importantly,
our generator gives a precise control over the length of the summary, which is
especially well-suited when space is limited. Our selectors are designed to
predict the optimal summary length and put special emphasis on faithfulness to
the original text. Both stages can be effectively trained, optimized and
evaluated. Our experiments on benchmark summarization datasets suggest that
this paradigm can achieve state-of-the-art performance.
- Abstract(参考訳): 提案手法は,多様なコンテンツと異なる長さを持つ対象要約の複数のバリエーションを生成し,ユーザのニーズに応じたスコア付けと選択を行う新しい手法を提案する。
単一の参照サマリーで訓練された抽象的な要約者は、複数の望ましい特性、すなわち最も重要な情報を取り込み、原文、文法、流動性に忠実な出力を生成するのに苦労する。
本稿では,第1段階のソーステキストから多種多様な候補要約を生成するための2段階の戦略を提案し,第2段階のアプティブル・サマリーをスコアリングし,選択する。
重要なことに、我々の発電機は要約の長さを正確に制御し、特に空間が制限されている場合に適している。
我々のセレクタは、最適な要約長を予測し、元のテキストに忠実さを特に強調するように設計されている。
両方の段階を効果的に訓練し、最適化し、評価することができる。
ベンチマーク要約データセットの実験により,このパラダイムが最先端の性能を達成できることが示唆された。
関連論文リスト
- Hit the Sweet Spot! Span-Level Ensemble for Large Language Models [8.34562564266839]
本研究では,リアルタイム調整の必要性と正確なアンサンブル決定に必要な情報とを効果的にバランスさせるスパンレベルアンサンブル手法であるSweetSpanを提案する。
まず、各候補モデルを独立して共有プレフィックスに基づいて候補スパンを生成する。
第二に、難易度スコアを計算して、候補モデル間の相互評価を容易にし、不誠実なスコアを抽出してロバストなスパン選択を実現する。
論文 参考訳(メタデータ) (2024-09-27T09:41:29Z) - Attributable and Scalable Opinion Summarization [79.87892048285819]
我々は、頻繁なエンコーディングを復号することで抽象的な要約を生成し、同じ頻繁なエンコーディングに割り当てられた文を選択して抽出的な要約を生成する。
本手法は,要約プロセスの一部として要約を生成するために使用される文を同定するため,帰属的手法である。
なぜなら、アグリゲーションはトークンの長いシーケンスではなく、潜在空間で実行されるからである。
論文 参考訳(メタデータ) (2023-05-19T11:30:37Z) - UniSumm and SummZoo: Unified Model and Diverse Benchmark for Few-Shot
Summarization [54.59104881168188]
textscUniSummは、複数の要約タスクで事前訓練された、統合された数ショットの要約モデルである。
textscSummZooは、スクリーンショットの要約をよりよく評価するための新しいベンチマークである。
論文 参考訳(メタデータ) (2022-11-17T18:54:47Z) - Controlled Text Reduction [15.102190738450092]
textitControlled Text Reduction をスタンドアロンタスクとして形式化する。
モデルでは、対象情報すべてと対象情報のみを含む一貫性のあるテキストを生成する必要がある。
論文 参考訳(メタデータ) (2022-10-24T17:59:03Z) - Towards Summary Candidates Fusion [26.114829566197976]
サムマフュージョンと呼ばれる第2段階抽象要約における新しいパラダイムを提案する。
いくつかの要約候補を融合させ、新しい抽象的な第2段階の要約を生成する。
本手法は,複数の要約データセットでよく機能し,融解サマリーのROUGEスコアと定性の両方を改善した。
論文 参考訳(メタデータ) (2022-10-17T06:48:05Z) - Unsupervised Summarization with Customized Granularities [76.26899748972423]
本稿では,最初の教師なし多粒度要約フレームワークであるGranuSumを提案する。
異なる数のイベントを入力することで、GranuSumは教師なしの方法で複数の粒度のサマリーを生成することができる。
論文 参考訳(メタデータ) (2022-01-29T05:56:35Z) - Text Summarization with Latent Queries [60.468323530248945]
本稿では,LaQSumについて紹介する。LaQSumは,既存の問合せ形式と抽象的な要約のための文書から遅延クエリを学習する,最初の統一テキスト要約システムである。
本システムでは, 潜伏クエリモデルと条件付き言語モデルとを協調的に最適化し, ユーザがテスト時に任意のタイプのクエリをプラグイン・アンド・プレイできるようにする。
本システムでは,クエリタイプ,文書設定,ターゲットドメインの異なる要約ベンチマークにおいて,強力な比較システムの性能を強く向上させる。
論文 参考訳(メタデータ) (2021-05-31T21:14:58Z) - Controllable Abstractive Dialogue Summarization with Sketch Supervision [56.59357883827276]
本モデルは,最大50.79のROUGE-Lスコアを持つ最大対話要約コーパスSAMSumの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-28T19:05:36Z) - Summarize, Outline, and Elaborate: Long-Text Generation via Hierarchical
Supervision from Extractive Summaries [46.183289748907804]
長文生成のためのアウトライン化,アウトライン化,エラボレートを行うパイプラインシステムSOEを提案する。
SOEは、より高速な収束速度とともに、非常に優れた品質の長いテキストを生成する。
論文 参考訳(メタデータ) (2020-10-14T13:22:20Z) - Exploring Explainable Selection to Control Abstractive Summarization [51.74889133688111]
説明可能性を重視した新しいフレームワークを開発する。
新しいペアワイズ行列は、文の相互作用、中心性、属性スコアをキャプチャする。
コンストラクタ内の文分割アテンション機構は、最終要約が所望のコンテンツを強調することを保証する。
論文 参考訳(メタデータ) (2020-04-24T14:39:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。