論文の概要: Masked Summarization to Generate Factually Inconsistent Summaries for
Improved Factual Consistency Checking
- arxiv url: http://arxiv.org/abs/2205.02035v1
- Date: Wed, 4 May 2022 12:48:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 14:28:28.981898
- Title: Masked Summarization to Generate Factually Inconsistent Summaries for
Improved Factual Consistency Checking
- Title(参考訳): ファクチュアル整合性検査の改善を目的としたマスケード要約法
- Authors: Hwanhee Lee, Kang Min Yoo, Joonsuk Park, Hwaran Lee, Kyomin Jung
- Abstract要約: 本稿では,キー情報を隠蔽したソーステキストと参照要約を用いて,現実的に一貫性のない要約を生成することを提案する。
7つのベンチマークデータセットを用いた実験により,提案手法を用いて生成した要約に基づいて訓練された実例整合性分類器が既存モデルを上回っていることが示された。
- 参考スコア(独自算出の注目度): 28.66287193703365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the recent advances in abstractive summarization systems, it is still
difficult to determine whether a generated summary is factual consistent with
the source text. To this end, the latest approach is to train a factual
consistency classifier on factually consistent and inconsistent summaries.
Luckily, the former is readily available as reference summaries in existing
summarization datasets. However, generating the latter remains a challenge, as
they need to be factually inconsistent, yet closely relevant to the source text
to be effective. In this paper, we propose to generate factually inconsistent
summaries using source texts and reference summaries with key information
masked. Experiments on seven benchmark datasets demonstrate that factual
consistency classifiers trained on summaries generated using our method
generally outperform existing models and show a competitive correlation with
human judgments. We also analyze the characteristics of the summaries generated
using our method. We will release the pre-trained model and the code at
https://github.com/hwanheelee1993/MFMA.
- Abstract(参考訳): 近年の抽象要約システムの進歩にもかかわらず、生成した要約が原文と事実的一致するかどうかを判断することは依然として困難である。
この目的のために、最新のアプローチでは、事実整合性分類器を、事実一貫性と一貫性のない要約に基づいてトレーニングする。
幸運なことに、前者は既存の要約データセットの参照要約として簡単に利用できる。
しかし、ソーステキストが効果的であるためには、実際に一貫性がなく、かつ密接に関連している必要があるため、後者の生成は依然として課題である。
本稿では,ソーステキストと参照要約を用いて,キー情報をマスクした事実的一貫性のない要約を生成することを提案する。
7つのベンチマークデータセットを用いた実験により,本手法を用いて生成した要約に基づいて訓練した事実整合性分類器が既存モデルより優れ,人間の判断と競合する相関性を示すことがわかった。
また,本手法を用いて生成した要約の特徴も分析した。
トレーニング済みのモデルとコードをhttps://github.com/hwanheelee 1993/mfmaでリリースします。
関連論文リスト
- AMRFact: Enhancing Summarization Factuality Evaluation with AMR-Driven Negative Samples Generation [57.8363998797433]
抽象的意味表現(AMR)を用いた摂動要約を生成するフレームワークであるAMRFactを提案する。
提案手法は,AMRグラフに一貫した要約を解析し,制御された事実不整合を注入して負の例を生成し,一貫性のない事実不整合要約を高い誤差型カバレッジで生成する。
論文 参考訳(メタデータ) (2023-11-16T02:56:29Z) - Evaluating the Factual Consistency of Large Language Models Through News
Summarization [97.04685401448499]
本稿では,要約タスクに着目したFIB(Factual Inconsistency Benchmark)と呼ばれる新しいベンチマークを提案する。
現実的に一貫した要約では、手作業で事実的に一貫したものとして検証する、人書きの参照要約を使用します。
現実的に矛盾しない要約に対して、我々は、事実的に矛盾しているとして手動で注釈付けした一連の要約モデルから要約を生成する。
論文 参考訳(メタデータ) (2022-11-15T18:50:34Z) - Questioning the Validity of Summarization Datasets and Improving Their
Factual Consistency [14.974996886744083]
SummFCは,事実整合性を改善したフィルタされた要約データセットである。
我々は,データセットが要約システムの開発と評価のための有効なベンチマークとなるべきだと論じている。
論文 参考訳(メタデータ) (2022-10-31T15:04:20Z) - Correcting Diverse Factual Errors in Abstractive Summarization via
Post-Editing and Language Model Infilling [56.70682379371534]
提案手法は, 誤要約の修正において, 従来手法よりもはるかに優れていることを示す。
我々のモデルであるFactEditは、CNN/DMで11点、XSumで31点以上のファクトリティスコアを改善する。
論文 参考訳(メタデータ) (2022-10-22T07:16:19Z) - Falsesum: Generating Document-level NLI Examples for Recognizing Factual
Inconsistency in Summarization [63.21819285337555]
高品質なタスク指向の例でトレーニングデータを拡張した場合,NLIモデルがこのタスクに有効であることを示す。
我々は、制御可能なテキスト生成モデルを利用して、人間の注釈付き要約を摂動させるデータ生成パイプラインであるFalsesumを紹介した。
本研究では,Falsesumを付加したNLIデータセットでトレーニングしたモデルにより,4つのベンチマークを用いて,要約における事実整合性を検出することにより,最先端のパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2022-05-12T10:43:42Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Enhancing Factual Consistency of Abstractive Summarization [57.67609672082137]
ファクトアウェアな要約モデル FASum を提案し,実情関係を抽出し,要約生成プロセスに統合する。
次に,既存のシステムから生成した要約から事実誤りを自動的に補正する事実補正モデルFCを設計する。
論文 参考訳(メタデータ) (2020-03-19T07:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。