論文の概要: Improving Factual Consistency of Abstractive Summarization via Question
Answering
- arxiv url: http://arxiv.org/abs/2105.04623v1
- Date: Mon, 10 May 2021 19:07:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 14:08:50.033565
- Title: Improving Factual Consistency of Abstractive Summarization via Question
Answering
- Title(参考訳): 質問応答による抽象要約の実態整合性の改善
- Authors: Feng Nan, Cicero Nogueira dos Santos, Henghui Zhu, Patrick Ng,
Kathleen McKeown, Ramesh Nallapati, Dejiao Zhang, Zhiguo Wang, Andrew O.
Arnold, Bing Xiang
- Abstract要約: 要約における事実整合性に対処するアプローチを提案する。
まず,実体整合性を測定するための効率的な自動評価指標を提案する。
次に,モデル学習時に提案するメトリックを最大化する新しい学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 25.725873545789046
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A commonly observed problem with the state-of-the art abstractive
summarization models is that the generated summaries can be factually
inconsistent with the input documents. The fact that automatic summarization
may produce plausible-sounding yet inaccurate summaries is a major concern that
limits its wide application. In this paper we present an approach to address
factual consistency in summarization. We first propose an efficient automatic
evaluation metric to measure factual consistency; next, we propose a novel
learning algorithm that maximizes the proposed metric during model training.
Through extensive experiments, we confirm that our method is effective in
improving factual consistency and even overall quality of the summaries, as
judged by both automatic metrics and human evaluation.
- Abstract(参考訳): 最先端の抽象要約モデルの一般的な問題は、生成された要約が実際に入力された文書と矛盾することがあることである。
自動要約が妥当だが不正確な要約を生み出す可能性があるという事実は、その幅広い応用を制限する主要な関心事である。
本稿では,要約における事実整合性に対処する手法を提案する。
本稿では,まず,実測的一貫性を測定するための効率的な自動評価指標を提案し,次に,モデル学習中に提案手法を最大化する新しい学習アルゴリズムを提案する。
実験により,本手法は,自動測定と人的評価の両方で判断されるように,事実整合性の向上や要約の全体的な品質向上に有効であることを確認した。
関連論文リスト
- Improving Factuality of Abstractive Summarization via Contrastive Reward
Learning [77.07192378869776]
本稿では,報酬学習と実効性指標の最近の発展を取り入れた,シンプルだが効果的なコントラスト学習フレームワークを提案する。
実証的研究により,提案手法により,実測値のフィードバックから要約モデルを学習できることが実証された。
論文 参考訳(メタデータ) (2023-07-10T12:01:18Z) - Factually Consistent Summarization via Reinforcement Learning with
Textual Entailment Feedback [57.816210168909286]
我々は,この問題を抽象的な要約システムで解くために,テキストエンテーメントモデルの最近の進歩を活用している。
我々は、事実整合性を最適化するために、レファレンスフリーのテキストエンターメント報酬を用いた強化学習を用いる。
自動測定と人的評価の両結果から,提案手法は生成した要約の忠実さ,サリエンス,簡潔さを著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-05-31T21:04:04Z) - Improving Factuality of Abstractive Summarization without Sacrificing
Summary Quality [27.57037141986362]
我々は,要約品質を犠牲にすることなく,要約事実性を改善するためのEFACTSUM(Effective Factual Summarization)を提案する。
比較学習フレームワークを改良した候補サマリーと組み合わせることで,実感と類似度に基づく測定値の両方が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-05-24T10:15:17Z) - Improving Faithfulness of Abstractive Summarization by Controlling
Confounding Effect of Irrelevant Sentences [38.919090721583075]
事実整合性は、共同創設者として機能する入力テキストの無関係な部分によって引き起こされる可能性があることを示す。
そこで我々は,人間が記述した関連文を利用できる場合に利用することにより,そのような欠点を抑えるためのシンプルなマルチタスクモデルを設計する。
提案手法は,AnswerSumm citepfabbri 2021answersummデータセットの強いベースラインに対して,忠実度スコアを20%向上させる。
論文 参考訳(メタデータ) (2022-12-19T18:51:06Z) - Correcting Diverse Factual Errors in Abstractive Summarization via
Post-Editing and Language Model Infilling [56.70682379371534]
提案手法は, 誤要約の修正において, 従来手法よりもはるかに優れていることを示す。
我々のモデルであるFactEditは、CNN/DMで11点、XSumで31点以上のファクトリティスコアを改善する。
論文 参考訳(メタデータ) (2022-10-22T07:16:19Z) - Analyzing and Evaluating Faithfulness in Dialogue Summarization [67.07947198421421]
まず,対話要約の忠実度に関するきめ細かな人間の分析を行い,生成した要約の35%以上がソース対話に忠実に一致していないことを観察する。
そこで本研究では,ルールベース変換により生成した複数選択質問を用いたモデルレベルの忠実度評価手法を提案する。
論文 参考訳(メタデータ) (2022-10-21T07:22:43Z) - Evaluation of Automatic Text Summarization using Synthetic Facts [0.0]
自動参照レステキスト要約評価システムを提案する。
本評価システムは,テキスト要約モデルの網羅的品質を測定する最初のシステムである。
論文 参考訳(メタデータ) (2022-04-11T05:10:37Z) - Factual Consistency Evaluation for Text Summarization via Counterfactual
Estimation [42.63902468258758]
本稿では,テキスト要約における事実整合性を評価するための新しい指標を提案する。
我々は3つの公開抽象テキスト要約データセットについて一連の実験を行った。
論文 参考訳(メタデータ) (2021-08-30T11:48:41Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Enhancing Factual Consistency of Abstractive Summarization [57.67609672082137]
ファクトアウェアな要約モデル FASum を提案し,実情関係を抽出し,要約生成プロセスに統合する。
次に,既存のシステムから生成した要約から事実誤りを自動的に補正する事実補正モデルFCを設計する。
論文 参考訳(メタデータ) (2020-03-19T07:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。