論文の概要: Length-controllable Abstractive Summarization by Guiding with Summary
Prototype
- arxiv url: http://arxiv.org/abs/2001.07331v1
- Date: Tue, 21 Jan 2020 04:01:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 00:01:55.281125
- Title: Length-controllable Abstractive Summarization by Guiding with Summary
Prototype
- Title(参考訳): 合成プロトタイプによる長さ制御可能な抽象要約
- Authors: Itsumi Saito, Kyosuke Nishida, Kosuke Nishida, Atsushi Otsuka, Hisako
Asano, Junji Tomita, Hiroyuki Shindo, Yuji Matsumoto
- Abstract要約: 本稿では,新しい長さ制御可能な抽象要約モデルを提案する。
我々のモデルは2つのステップで要約を生成する。
CNN/Daily MailデータセットとNEWSROOMデータセットによる実験により、我々のモデルは、長さ制御された設定で過去のモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 27.094797760775297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new length-controllable abstractive summarization model. Recent
state-of-the-art abstractive summarization models based on encoder-decoder
models generate only one summary per source text. However, controllable
summarization, especially of the length, is an important aspect for practical
applications. Previous studies on length-controllable abstractive summarization
incorporate length embeddings in the decoder module for controlling the summary
length. Although the length embeddings can control where to stop decoding, they
do not decide which information should be included in the summary within the
length constraint. Unlike the previous models, our length-controllable
abstractive summarization model incorporates a word-level extractive module in
the encoder-decoder model instead of length embeddings. Our model generates a
summary in two steps. First, our word-level extractor extracts a sequence of
important words (we call it the "prototype text") from the source text
according to the word-level importance scores and the length constraint.
Second, the prototype text is used as additional input to the encoder-decoder
model, which generates a summary by jointly encoding and copying words from
both the prototype text and source text. Since the prototype text is a guide to
both the content and length of the summary, our model can generate an
informative and length-controlled summary. Experiments with the CNN/Daily Mail
dataset and the NEWSROOM dataset show that our model outperformed previous
models in length-controlled settings.
- Abstract(参考訳): 長さ制御可能な抽象要約モデルを提案する。
エンコーダデコーダモデルに基づく最近の最先端抽象要約モデルでは、ソーステキスト毎に1つの要約しか生成できない。
しかしながら、制御可能な要約(特に長さ)は実用上重要な側面である。
長さ制御可能な抽象要約に関する従来の研究は、要約長を制御するデコーダモジュールに長さ埋め込みを組み込んでいる。
長さ埋め込みはデコードを止める場所を制御することができるが、長さ制約内の要約にどの情報を含めるべきかは決定しない。
従来のモデルとは異なり、長さ制御可能な抽象要約モデルは、長さ埋め込みの代わりにエンコーダデコーダモデルにワードレベルの抽出モジュールを組み込む。
我々のモデルは2つのステップで要約を生成する。
まず、単語レベルの重要度スコアと長さ制約に応じて、単語レベルの抽出器が、ソーステキストから重要単語のシーケンスを抽出する(これを「プロトタイプテキスト」と呼ぶ)。
次に、プロトタイプテキストをエンコーダ・デコーダモデルに追加入力として使用し、プロトタイプテキストとソーステキストの両方からの単語を共同でエンコードして要約を生成する。
プロトタイプテキストは要約の内容と長さの両方のガイドであるため,本モデルでは情報と長さを制御した要約を生成することができる。
CNN/Daily MailデータセットとNEWSROOMデータセットによる実験により、我々のモデルは、長さ制御された設定で過去のモデルよりも優れていた。
関連論文リスト
- A Novel LLM-based Two-stage Summarization Approach for Long Dialogues [9.835499880812646]
本研究では,長い文書から情報を分割・凝縮する階層的枠組みを提案する。
凝縮段階は、教師なし生成モデルを用いて凝縮データを生成する。
要約段階は、縮合されたデータ上の抽象的な要約モデルを微調整して最終結果を生成する。
論文 参考訳(メタデータ) (2024-10-09T03:42:40Z) - Summarizing long regulatory documents with a multi-step pipeline [2.2591852560804675]
長い規則文を要約するための2段階アーキテクチャの有効性は、使用するモデルによって異なることを示す。
コンテクスト長の短い抽象エンコーダ・デコーダモデルでは抽出ステップの有効性が異なるが、長文エンコーダ・デコーダモデルでは抽出ステップが性能を悪化させる。
論文 参考訳(メタデータ) (2024-08-19T08:07:25Z) - InstructCMP: Length Control in Sentence Compression through Instruction-based Large Language Models [27.26285945442178]
InstructCMPは文圧縮タスクへのアプローチであり、命令によって長さ制約を考慮できる。
長さプライミングを適用することで、ゼロショット設定と微調整設定の両方において、インストラクトCMPの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-16T23:00:47Z) - Summarization with Precise Length Control [23.688834410051]
本稿では,トークン数や文数を正確に指定した要約を生成するフレームワークを提案する。
モデルを協調訓練して長さを予測するので、最適な長さの要約を生成することができる。
論文 参考訳(メタデータ) (2023-05-09T04:45:24Z) - MACSum: Controllable Summarization with Mixed Attributes [56.685735509260276]
MACSumは、混合属性を制御するための最初の人間アノテーションによる要約データセットである。
混合制御可能な要約の新しいタスクに対する2つの単純かつ効果的なパラメータ効率のアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-09T17:17:37Z) - Summarization Programs: Interpretable Abstractive Summarization with
Neural Modular Trees [89.60269205320431]
現在の抽象的要約モデルは明確な解釈可能性の欠如に悩まされるか、あるいは不完全理性を与える。
本稿では,バイナリツリーの(順序付き)リストからなる解釈可能なモジュラーフレームワークであるSummarization Program (SP)を提案する。
要約プログラムは、要約文毎に1つのルートノードを含み、各要約文と文書文を個別のツリーで接続する。
論文 参考訳(メタデータ) (2022-09-21T16:50:22Z) - Speech Summarization using Restricted Self-Attention [79.89680891246827]
音声要約に最適化された単一モデルを提案する。
提案モデルでは,ハウ-2コーパスの音声を直接要約する手法が提案されている。
論文 参考訳(メタデータ) (2021-10-12T18:21:23Z) - CTRLsum: Towards Generic Controllable Text Summarization [54.69190421411766]
現在、制御可能な要約のための新しいフレームワークである。
本手法により,ユーザは要約システムと対話することで,生成された要約の複数の側面を制御できる。
単一の統一モデルを使用することで、sumは推論時に要約操作の幅広い範囲を達成できる。
論文 参考訳(メタデータ) (2020-12-08T08:54:36Z) - SEAL: Segment-wise Extractive-Abstractive Long-form Text Summarization [39.85688193525843]
入力シーケンス長を最大10万トークン,出力シーケンス長を最大768トークンとするシーケンス・ツー・シーケンスについて検討した。
入力スニペットを動的に抽出・選択し,各出力セグメントに疎通する,新しいエンコーダ・デコーダを特徴とするトランスフォーマーベースモデルSEALを提案する。
SEALモデルは、既存の長文要約タスクの最先端結果を実現し、私たちが導入した新しいデータセット/タスクであるSearch2Wikiにおいて、はるかに長い入力テキストで強力なベースラインモデルより優れている。
論文 参考訳(メタデータ) (2020-06-18T00:13:21Z) - Exploring Explainable Selection to Control Abstractive Summarization [51.74889133688111]
説明可能性を重視した新しいフレームワークを開発する。
新しいペアワイズ行列は、文の相互作用、中心性、属性スコアをキャプチャする。
コンストラクタ内の文分割アテンション機構は、最終要約が所望のコンテンツを強調することを保証する。
論文 参考訳(メタデータ) (2020-04-24T14:39:34Z) - Pre-training for Abstractive Document Summarization by Reinstating
Source Text [105.77348528847337]
本稿では,Seq2Seqに基づく非ラベルテキストによる抽象要約モデルの事前学習を可能にする3つの事前学習目標を提案する。
2つのベンチマーク要約データセットの実験では、3つの目的がすべてベースラインでパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2020-04-04T05:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。