論文の概要: Reinforced Abstractive Summarization with Adaptive Length Controlling
- arxiv url: http://arxiv.org/abs/2112.07534v1
- Date: Tue, 14 Dec 2021 16:48:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 18:47:30.656598
- Title: Reinforced Abstractive Summarization with Adaptive Length Controlling
- Title(参考訳): 適応長制御による強化抽象要約
- Authors: Mingyang Song, Yi Feng, Liping Jing
- Abstract要約: 制御可能な要約、特に長さは、いくつかの実用的な応用において重要な問題である。
2段階の抽象的要約モデルを活用するために、textbfAdaptive textbfLength textbfControlling textbfOptimization (textbfALCO)法を提案する。
- 参考スコア(独自算出の注目度): 12.793451906532223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Document summarization, as a fundamental task in natural language generation,
aims to generate a short and coherent summary for a given document.
Controllable summarization, especially of the length, is an important issue for
some practical applications, especially how to trade-off the length constraint
and information integrity. In this paper, we propose an \textbf{A}daptive
\textbf{L}ength \textbf{C}ontrolling \textbf{O}ptimization (\textbf{ALCO})
method to leverage two-stage abstractive summarization model via reinforcement
learning. ALCO incorporates length constraint into the stage of sentence
extraction to penalize the overlength extracted sentences. Meanwhile, a
saliency estimation mechanism is designed to preserve the salient information
in the generated sentences. A series of experiments have been conducted on a
wildly-used benchmark dataset \textit{CNN/Daily Mail}. The results have shown
that ALCO performs better than the popular baselines in terms of length
controllability and content preservation.
- Abstract(参考訳): 自然言語生成における基本的なタスクである文書要約は、与えられた文書に対して短く一貫性のある要約を生成することを目的としている。
制御可能な要約、特に長さは、いくつかの実用アプリケーション、特に長さ制約と情報の整合性をトレードオフする方法において重要な問題である。
本稿では,強化学習による2段階抽象要約モデルを活用するために,textbf{a}daptive \textbf{l}ength \textbf{c}ontrolling \textbf{o}ptimization (\textbf{alco})法を提案する。
ALCOは、長さ制約を文抽出の段階に組み込んで、過剰な長さ抽出文をペナルティ化する。
一方,サリエンシ推定機構は,生成した文のサリエンシ情報を保存するように設計されている。
大規模なベンチマークデータセットであるtextit{CNN/Daily Mail}で、一連の実験が行われた。
その結果、ALCOは長さ制御性とコンテンツ保存の観点から、一般的なベースラインよりも優れていた。
関連論文リスト
- A Novel LLM-based Two-stage Summarization Approach for Long Dialogues [9.835499880812646]
本研究では,長い文書から情報を分割・凝縮する階層的枠組みを提案する。
凝縮段階は、教師なし生成モデルを用いて凝縮データを生成する。
要約段階は、縮合されたデータ上の抽象的な要約モデルを微調整して最終結果を生成する。
論文 参考訳(メタデータ) (2024-10-09T03:42:40Z) - FENICE: Factuality Evaluation of summarization based on Natural language Inference and Claim Extraction [85.26780391682894]
自然言語推論とクレーム抽出(FENICE)に基づく要約のファクチュアリティ評価を提案する。
FENICEは、ソース文書内の情報と、要約から抽出されたクレームと呼ばれる一連の原子的事実との間のNLIベースのアライメントを利用する。
我々の測定基準は、事実性評価のためのデファクトベンチマークであるAGGREFACTに関する新しい技術状況を設定する。
論文 参考訳(メタデータ) (2024-03-04T17:57:18Z) - HEGEL: Hypergraph Transformer for Long Document Summarization [14.930704950433324]
本稿では,高次交叉関係を捉えることで,長期文書要約のためのハイパーグラフニューラルネットワークHEGELを提案する。
HEGELを2つのベンチマークデータセットで広範な実験により検証し,HEGELの有効性と有効性を示す実験結果を得た。
論文 参考訳(メタデータ) (2022-10-09T00:32:50Z) - Text Summarization with Oracle Expectation [88.39032981994535]
抽出要約は、文書の中で最も重要な文を識別し、連結することによって要約を生成する。
ほとんどの要約データセットは、文書文が要約に値するかどうかを示す金のラベルを持っていない。
本稿では,ソフトな予測に基づく文ラベルを生成する,シンプルで効果的なラベル付けアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-26T14:10:08Z) - SNaC: Coherence Error Detection for Narrative Summarization [73.48220043216087]
SNaCは長文の微粒化アノテーションに根ざした物語コヒーレンス評価フレームワークである。
本稿では,生成した物語要約におけるコヒーレンスエラーの分類法を開発し,150冊の本や映画の脚本要約にまたがる6.6k文のスパンレベルアノテーションを収集する。
我々の研究は、最先端の要約モデルによって生成されるコヒーレンスエラーの最初の特徴と、群衆アノテータからコヒーレンス判断を引き出すためのプロトコルを提供する。
論文 参考訳(メタデータ) (2022-05-19T16:01:47Z) - Summ^N: A Multi-Stage Summarization Framework for Long Input Dialogues
and Documents [13.755637074366813]
SummNは、典型的な事前訓練されたLMの最大文脈長よりも長いテキストを入力するための、シンプルで柔軟で効果的な多段階フレームワークである。
LMコンテキストサイズを固定したままステージ数を調整することで任意の長さの入力テキストを処理できる。
実験の結果,SummNは従来の最先端手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-10-16T06:19:54Z) - Constrained Abstractive Summarization: Preserving Factual Consistency
with Constrained Generation [93.87095877617968]
本稿では,抽象要約の現実的一貫性を保ちつつ,制約付き抽象要約(CAS)を提案する。
我々は、CASを満たすために、一般的に自己回帰生成モデルに適用される語彙制約付き復号法を採用する。
対話的要約において1つの手動制約のみを使用する場合、最大13.8ROUGE-2ゲインを観測する。
論文 参考訳(メタデータ) (2020-10-24T00:27:44Z) - Discrete Optimization for Unsupervised Sentence Summarization with
Word-Level Extraction [31.648764677078837]
自動要約は、その最も重要な情報を保存しながら、文章の短いバージョンを生成する。
我々はこれら2つの側面を言語モデリングと意味的類似度メトリクスからなる教師なし目的関数でモデル化する。
提案手法は,ROUGEスコアによる教師なし文要約のための新しい最先端技術を実現する。
論文 参考訳(メタデータ) (2020-05-04T19:01:55Z) - Pre-training for Abstractive Document Summarization by Reinstating
Source Text [105.77348528847337]
本稿では,Seq2Seqに基づく非ラベルテキストによる抽象要約モデルの事前学習を可能にする3つの事前学習目標を提案する。
2つのベンチマーク要約データセットの実験では、3つの目的がすべてベースラインでパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2020-04-04T05:06:26Z) - Interpretable Multi-Headed Attention for Abstractive Summarization at
Controllable Lengths [14.762731718325002]
MLS(Multi-level Summarizer)は、テキスト文書の要約を制御可能な長さで構築するための教師付き手法である。
MLSはMETEORスコアで14.70%の強いベースラインを上回ります。
論文 参考訳(メタデータ) (2020-02-18T19:40:20Z) - The Shmoop Corpus: A Dataset of Stories with Loosely Aligned Summaries [72.48439126769627]
個々の章ごとに詳細なマルチパラグラフの要約と組み合わせた231ストーリーのデータセットであるShmoop Corpusを紹介します。
コーパスから、クローズ形式の質問応答や抽象的要約の簡易な形式を含む共通のNLPタスクのセットを構築する。
このコーパスのユニークな構造は、マシンストーリーの理解をより親しみやすいものにするための重要な基盤となると信じている。
論文 参考訳(メタデータ) (2019-12-30T21:03:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。