論文の概要: Entity-based SpanCopy for Abstractive Summarization to Improve the
Factual Consistency
- arxiv url: http://arxiv.org/abs/2209.03479v1
- Date: Wed, 7 Sep 2022 21:38:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 12:55:17.549082
- Title: Entity-based SpanCopy for Abstractive Summarization to Improve the
Factual Consistency
- Title(参考訳): 抽象的な要約のためのエンティティベースのSpanCopyは、Factual Consistencyを改善する
- Authors: Wen Xiao, Giuseppe Carenini
- Abstract要約: 生成した要約とソース文書間のミスマッチしたエンティティを削減できる新しいエンティティベースのSpanCopy機構を提案する。
実験結果から,SpanCopyは,単語レベルと実体レベルの相違なく,実体レベルの事実整合性を効果的に改善できることが示された。
- 参考スコア(独自算出の注目度): 34.626254436210644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the success of recent abstractive summarizers on automatic evaluation
metrics, the generated summaries still present factual inconsistencies with the
source document. In this paper, we focus on entity-level factual inconsistency,
i.e. reducing the mismatched entities between the generated summaries and the
source documents. We therefore propose a novel entity-based SpanCopy mechanism,
and explore its extension with a Global Relevance component. Experiment results
on four summarization datasets show that SpanCopy can effectively improve the
entity-level factual consistency with essentially no change in the word-level
and entity-level saliency. The code is available at
https://github.com/Wendy-Xiao/Entity-based-SpanCopy
- Abstract(参考訳): 自動評価指標に関する最近の抽象的要約器の成功にもかかわらず、生成した要約は、ソース文書と現実的に矛盾している。
本稿では,エンティティレベルの事実的不整合,すなわち生成したサマリーとソースドキュメント間のミスマッチエンティティの低減に着目する。
そこで我々は,新しいエンティティベースのspancopyメカニズムを提案し,その拡張をグローバル関連コンポーネントで探究する。
4つの要約データセットの実験結果から、SpanCopyは、単語レベルとエンティティレベルのサリエンシを変更することなく、エンティティレベルの事実整合性を効果的に改善できることが示された。
コードはhttps://github.com/Wendy-Xiao/Entity-based-SpanCopyで入手できる。
関連論文リスト
- CopyNE: Better Contextual ASR by Copying Named Entities [35.36208545538822]
我々は、NE辞書からエンティティをコピーできるCopyNEと呼ばれる体系的なメカニズムを設計する。
実験により、CopyNEは従来のアプローチと比較して、エンティティの翻訳精度を一貫して改善することが示された。
論文 参考訳(メタデータ) (2023-05-22T09:03:11Z) - Document-Level Abstractive Summarization [0.0]
非常に長いテキストの自動要約を改善するために,トランスフォーマー技術がいかに効果的かを検討する。
より小さなチャンクを処理して文書全体の要約を生成するコストを削減できる新しい検索強化手法を提案する。
論文 参考訳(メタデータ) (2022-12-06T14:39:09Z) - Improving Factual Consistency in Summarization with Compression-Based
Post-Editing [146.24839415743358]
この問題に対処するためのモデルに依存しない方法は、生成された要約を後編集することであることを示す。
本稿では,文圧縮データを用いて後編集モデルを訓練し,特別なトークンでマークされた外在的エンティティエラーを要約する手法を提案する。
我々は,このモデルがROUGEを維持しながら事実整合性を向上し,XSum上でのエンティティ精度を最大30%向上し,他のポストエディタ上でも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-11T13:35:38Z) - Masked Summarization to Generate Factually Inconsistent Summaries for
Improved Factual Consistency Checking [28.66287193703365]
本稿では,キー情報を隠蔽したソーステキストと参照要約を用いて,現実的に一貫性のない要約を生成することを提案する。
7つのベンチマークデータセットを用いた実験により,提案手法を用いて生成した要約に基づいて訓練された実例整合性分類器が既存モデルを上回っていることが示された。
論文 参考訳(メタデータ) (2022-05-04T12:48:49Z) - Entity-level Factual Consistency of Abstractive Text Summarization [26.19686599842915]
抽象要約の重要な課題は、生成した要約の原文書に対する事実的一貫性を保証することである。
生成した要約の実体レベルの事実整合性を定量化するための新しいメトリクスセットを提案する。
論文 参考訳(メタデータ) (2021-02-18T03:07:28Z) - Contextualized Rewriting for Text Summarization [10.666547385992935]
グループアライメントを伴うSeq2seq問題として書き換える。
その結果,本手法は非テキスト化書き換えシステムよりも大幅に優れていることがわかった。
論文 参考訳(メタデータ) (2021-01-31T05:35:57Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z) - Enhancing Factual Consistency of Abstractive Summarization [57.67609672082137]
ファクトアウェアな要約モデル FASum を提案し,実情関係を抽出し,要約生成プロセスに統合する。
次に,既存のシステムから生成した要約から事実誤りを自動的に補正する事実補正モデルFCを設計する。
論文 参考訳(メタデータ) (2020-03-19T07:36:10Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。