論文の概要: Summarize, Outline, and Elaborate: Long-Text Generation via Hierarchical
Supervision from Extractive Summaries
- arxiv url: http://arxiv.org/abs/2010.07074v2
- Date: Fri, 9 Sep 2022 15:27:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 13:29:57.215207
- Title: Summarize, Outline, and Elaborate: Long-Text Generation via Hierarchical
Supervision from Extractive Summaries
- Title(参考訳): 要約・アウトライン・ラボレート:抽出サマリーからの階層的スーパービジョンによる長文生成
- Authors: Xiaofei Sun, Zijun Sun, Yuxian Meng, Jiwei Li and Chun Fan
- Abstract要約: 長文生成のためのアウトライン化,アウトライン化,エラボレートを行うパイプラインシステムSOEを提案する。
SOEは、より高速な収束速度とともに、非常に優れた品質の長いテキストを生成する。
- 参考スコア(独自算出の注目度): 46.183289748907804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The difficulty of generating coherent long texts lies in the fact that
existing models overwhelmingly focus on predicting local words, and cannot make
high level plans on what to generate or capture the high-level discourse
dependencies between chunks of texts. Inspired by human writing processes,
where a list of bullet points or a catalog is first outlined, and then each
bullet point is expanded to form the whole article, we propose {\it SOE}, a
pipelined system that involves of summarizing, outlining and elaborating for
long text generation: the model first outlines the summaries for different
segments of long texts, and then elaborates on each bullet point to generate
the corresponding segment. To avoid the labor-intensive process of summary
soliciting, we propose the {\it reconstruction} strategy, which extracts
segment summaries in an unsupervised manner by selecting its most informative
part to reconstruct the segment. The proposed generation system comes with the
following merits: (1) the summary provides high-level guidance for text
generation and avoids the local minimum of individual word predictions; (2) the
high-level discourse dependencies are captured in the conditional dependencies
between summaries and are preserved during the summary expansion process and
(3) additionally, we are able to consider significantly more contexts by
representing contexts as concise summaries. Extensive experiments demonstrate
that SOE produces long texts with significantly better quality, along with
faster convergence speed.
- Abstract(参考訳): コヒーレントな長文を生成することの難しさは、既存のモデルは局所的な単語の予測に圧倒的に重点を置いており、テキストチャンク間の高レベルな談話依存関係の生成やキャプチャーについて高レベルな計画を立てることができないという事実にある。
まず, 長文生成のための要約, アウトライン化, 共同作業を行うパイプラインシステムである {\it SOE} を提案し, モデルがまず, 長文の各セグメントの要約を概説し, それぞれの弾丸点について精査し, 対応するセグメントを生成する。
要約を要約する作業集約的プロセスを避けるために,セグメントを再構築するために最も有意義な部分を選択することにより,教師なしの方法でセグメント要約を抽出する「it再構築」戦略を提案する。
提案する生成システムは,(1)要約がテキスト生成のための高レベルなガイダンスを提供し,個々の単語予測の局所的最小化を回避すること,(2)要約間の条件付き依存関係に高レベルな談話依存性を取り込み,要約拡張プロセス中に保存すること,(3)コンテキストを簡潔な要約として表現することで,はるかに多くの文脈を考察できる。
大規模な実験により、SOEはより高速な収束速度とともに、非常に優れた品質の長いテキストを生成することが示された。
関連論文リスト
- Generating Multiple-Length Summaries via Reinforcement Learning for
Unsupervised Sentence Summarization [44.835811239393244]
文要約は、テキストの中核的な内容を維持しながら与えられたテキストを短縮する。
人書きの要約のないテキストを要約するために、教師なしのアプローチが研究されている。
本研究では, 基礎構造を含まない強化学習に基づく抽象モデルを提案する。
論文 参考訳(メタデータ) (2022-12-21T08:34:28Z) - A General Contextualized Rewriting Framework for Text Summarization [15.311467109946571]
抽出文は比較的焦点が当てられているが、背景知識や談話の文脈が失われる可能性がある。
コンテントベースのアドレッシングによって抽出文を識別し、グループタグアライメントを施したSeq2seqとしてコンテクスト化された書き直しを形式化する。
その結果,本手法は強化学習を必要とせず,非コンテクスチュアライズされた書き換えシステムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-13T03:55:57Z) - A Survey on Neural Abstractive Summarization Methods and Factual
Consistency of Summarization [18.763290930749235]
要約は、サブセット(要約)を作成するために、テキストデータの集合を計算的に短縮する過程である
既存の要約法は、抽出法と抽象法という2つのタイプに大別できる。
抽出要約器は、ソース文書からテキストスニペットを明示的に選択し、抽象要約器は、ソースで広く普及している最も健全な概念を伝えるために、新しいテキストスニペットを生成する。
論文 参考訳(メタデータ) (2022-04-20T14:56:36Z) - Summ^N: A Multi-Stage Summarization Framework for Long Input Dialogues
and Documents [13.755637074366813]
SummNは、典型的な事前訓練されたLMの最大文脈長よりも長いテキストを入力するための、シンプルで柔軟で効果的な多段階フレームワークである。
LMコンテキストサイズを固定したままステージ数を調整することで任意の長さの入力テキストを処理できる。
実験の結果,SummNは従来の最先端手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-10-16T06:19:54Z) - Text Summarization with Latent Queries [60.468323530248945]
本稿では,LaQSumについて紹介する。LaQSumは,既存の問合せ形式と抽象的な要約のための文書から遅延クエリを学習する,最初の統一テキスト要約システムである。
本システムでは, 潜伏クエリモデルと条件付き言語モデルとを協調的に最適化し, ユーザがテスト時に任意のタイプのクエリをプラグイン・アンド・プレイできるようにする。
本システムでは,クエリタイプ,文書設定,ターゲットドメインの異なる要約ベンチマークにおいて,強力な比較システムの性能を強く向上させる。
論文 参考訳(メタデータ) (2021-05-31T21:14:58Z) - Controllable Abstractive Dialogue Summarization with Sketch Supervision [56.59357883827276]
本モデルは,最大50.79のROUGE-Lスコアを持つ最大対話要約コーパスSAMSumの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-28T19:05:36Z) - Long Text Generation by Modeling Sentence-Level and Discourse-Level
Coherence [59.51720326054546]
本稿では,デコード処理における文レベルと談話レベルにおけるプレフィックス文を表現可能な長文生成モデルを提案する。
我々のモデルは最先端のベースラインよりも一貫性のあるテキストを生成することができる。
論文 参考訳(メタデータ) (2021-05-19T07:29:08Z) - Screenplay Summarization Using Latent Narrative Structure [78.45316339164133]
本稿では,物語の基盤となる構造を一般教師なし・教師付き抽出要約モデルに明示的に組み込むことを提案する。
重要な物語イベント(転回点)の観点で物語構造を定式化し、脚本を要約するために潜伏状態として扱う。
シーンレベルの要約ラベルを付加したテレビ画面のCSIコーパスの実験結果から,潜角点がCSIエピソードの重要な側面と相関していることが判明した。
論文 参考訳(メタデータ) (2020-04-27T11:54:19Z) - StructSum: Summarization via Structured Representations [27.890477913486787]
抽象テキスト要約は、長い資料の情報を要約した要約に圧縮することを目的としている。
モデリング技術の進歩にもかかわらず、抽象的な要約モデルは依然としていくつかの重要な課題に悩まされている。
本稿では,これらの課題に対処するための要約のための文書レベルの構造誘導に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-01T20:32:51Z) - The Shmoop Corpus: A Dataset of Stories with Loosely Aligned Summaries [72.48439126769627]
個々の章ごとに詳細なマルチパラグラフの要約と組み合わせた231ストーリーのデータセットであるShmoop Corpusを紹介します。
コーパスから、クローズ形式の質問応答や抽象的要約の簡易な形式を含む共通のNLPタスクのセットを構築する。
このコーパスのユニークな構造は、マシンストーリーの理解をより親しみやすいものにするための重要な基盤となると信じている。
論文 参考訳(メタデータ) (2019-12-30T21:03:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。