論文の概要: Planning with Entity Chains for Abstractive Summarization
- arxiv url: http://arxiv.org/abs/2104.07606v1
- Date: Thu, 15 Apr 2021 17:16:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 18:11:12.907619
- Title: Planning with Entity Chains for Abstractive Summarization
- Title(参考訳): 抽象要約のためのエンティティチェーンによる計画
- Authors: Shashi Narayan, Yao Zhao, Joshua Maynez, Gon\c{c}alo Simoes, Ryan
McDonald
- Abstract要約: 抽象的な要約の生成を計画し、基礎化するためにエンティティチェインを使うように提案する。
CNN/DailyMail、SAMSum、XSumで評価すると、この目的で訓練されたモデルは、エンティティの正確性と要約簡潔性を改善しました。
- 参考スコア(独自算出の注目度): 29.2137473544274
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pre-trained transformer-based sequence-to-sequence models have become the
go-to solution for many text generation tasks, including summarization.
However, the results produced by these models tend to contain significant
issues such as hallucinations and irrelevant passages. One solution to mitigate
these problems is to incorporate better content planning in neural
summarization. We propose to use entity chains (i.e., chains of entities
mentioned in the summary) to better plan and ground the generation of
abstractive summaries. In particular, we augment the target by prepending it
with its entity chain. We experimented with both pre-training and finetuning
with this content planning objective. When evaluated on CNN/DailyMail, SAMSum
and XSum, models trained with this objective improved on entity correctness and
summary conciseness, and achieved state-of-the-art performance on ROUGE for
SAMSum and XSum.
- Abstract(参考訳): 事前学習されたトランスフォーマーベースのシーケンス・ツー・シーケンスモデルは、要約を含む多くのテキスト生成タスクのgo-toソリューションとなっている。
しかし、これらのモデルによる結果は幻覚や無関係な通過などの重大な問題を含む傾向にある。
これらの問題を緩和する一つの解決策は、より優れたコンテンツ計画を神経要約に組み込むことである。
本稿では,エンティティチェーン(要約に記述されたエンティティのチェーン)を用いて,抽象的な要約の生成を計画し,基礎化することを提案する。
特に、エンティティチェーンにプリプレフィドすることで、ターゲットを増強します。
事前学習と微調整の両方をこのコンテンツ計画の目的で実験した。
CNN/DailyMail、SAMSum、XSumで評価すると、この目的で訓練されたモデルはエンティティの正しさと要約の簡潔さを改善し、SAMSumとXSumのROUGEで最先端のパフォーマンスを達成した。
関連論文リスト
- Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - Controllable Topic-Focused Abstractive Summarization [57.8015120583044]
制御された抽象的な要約は、特定の側面をカバーするために、ソース記事の凝縮したバージョンを作成することに焦点を当てる。
本稿では,トピックに着目した要約を生成可能なトランスフォーマーアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-12T03:51:38Z) - Summarization Programs: Interpretable Abstractive Summarization with
Neural Modular Trees [89.60269205320431]
現在の抽象的要約モデルは明確な解釈可能性の欠如に悩まされるか、あるいは不完全理性を与える。
本稿では,バイナリツリーの(順序付き)リストからなる解釈可能なモジュラーフレームワークであるSummarization Program (SP)を提案する。
要約プログラムは、要約文毎に1つのルートノードを含み、各要約文と文書文を個別のツリーで接続する。
論文 参考訳(メタデータ) (2022-09-21T16:50:22Z) - Improving the Faithfulness of Abstractive Summarization via Entity
Coverage Control [27.214742188672464]
エンティティカバレッジ制御(ECC)を用いたエンティティレベルの幻覚の治療法を提案する。
ECCはエンティティカバレッジの精度を計算し、トレーニング例ごとに対応する制御コードをプリペンドする。
提案手法は,教師付き微調整およびゼロショット設定において,より忠実かつ健全な抽象的要約をもたらすことを示す。
論文 参考訳(メタデータ) (2022-07-05T18:52:19Z) - Abstractive Query Focused Summarization with Query-Free Resources [60.468323530248945]
本稿では,汎用的な要約リソースのみを利用して抽象的なqfsシステムを構築する問題を考える。
本稿では,要約とクエリのための新しい統一表現からなるMasked ROUGE回帰フレームワークであるMargeを提案する。
最小限の監視から学習したにもかかわらず,遠隔管理環境において最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-12-29T14:39:35Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Knowledge Graph-Augmented Abstractive Summarization with Semantic-Driven
Cloze Reward [42.925345819778656]
本稿では,グラフ拡張と意味駆動型RewarDによる抽象要約のための新しいフレームワークであるASGARDを紹介する。
本稿では,2つのエンコーダ(シーケンシャル文書エンコーダ)とグラフ構造化エンコーダ(グラフ構造化エンコーダ)の利用を提案する。
その結果、我々のモデルは、New York TimesとCNN/Daily Mailのデータセットからの入力として、知識グラフのない変種よりもはるかに高いROUGEスコアを生成することがわかった。
論文 参考訳(メタデータ) (2020-05-03T18:23:06Z) - Pre-training for Abstractive Document Summarization by Reinstating
Source Text [105.77348528847337]
本稿では,Seq2Seqに基づく非ラベルテキストによる抽象要約モデルの事前学習を可能にする3つの事前学習目標を提案する。
2つのベンチマーク要約データセットの実験では、3つの目的がすべてベースラインでパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2020-04-04T05:06:26Z) - Deep Reinforced Self-Attention Masks for Abstractive Summarization
(DR.SAS) [0.0]
本稿では,CNN/DMデータ集合に基づく抽象的な要約問題に対処する新しいアーキテクチャ手法を提案する。
要約品質を向上させるためにトランスフォーマーの微妙な注意を学習する限界を検証した。
我々のモデルは、ROUGEの報酬よりも最適化されているため、より抽出的かつ実効的だが、詳細はコヒーレントである傾向にある。
論文 参考訳(メタデータ) (2019-12-30T01:32:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。