論文の概要: Factual Error Correction for Abstractive Summarization Models
- arxiv url: http://arxiv.org/abs/2010.08712v2
- Date: Thu, 1 Apr 2021 22:56:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 09:01:23.613414
- Title: Factual Error Correction for Abstractive Summarization Models
- Title(参考訳): 抽象要約モデルに対する事実誤り訂正
- Authors: Meng Cao, Yue Dong, Jiapeng Wu, Jackie Chi Kit Cheung
- Abstract要約: 本稿では,生成した要約の事実誤りを訂正するための編集後修正モジュールを提案する。
本モデルでは,他の神経要約モデルによって生成された要約の事実誤りを補正できることが示されている。
また、人工的なエラー訂正から下流の設定への移行は依然として非常に困難であることもわかりました。
- 参考スコア(独自算出の注目度): 41.77317902748772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural abstractive summarization systems have achieved promising progress,
thanks to the availability of large-scale datasets and models pre-trained with
self-supervised methods. However, ensuring the factual consistency of the
generated summaries for abstractive summarization systems is a challenge. We
propose a post-editing corrector module to address this issue by identifying
and correcting factual errors in generated summaries. The neural corrector
model is pre-trained on artificial examples that are created by applying a
series of heuristic transformations on reference summaries. These
transformations are inspired by an error analysis of state-of-the-art
summarization model outputs. Experimental results show that our model is able
to correct factual errors in summaries generated by other neural summarization
models and outperforms previous models on factual consistency evaluation on the
CNN/DailyMail dataset. We also find that transferring from artificial error
correction to downstream settings is still very challenging.
- Abstract(参考訳): ニューラルネットワークの抽象要約システムは、自己教師ありの手法で事前学習された大規模データセットとモデルの可用性により、有望な進歩を遂げている。
しかし,抽象的要約システムのための生成した要約の事実的一貫性を確保することは課題である。
生成した要約の事実誤りを特定し,修正することで,この問題に対処する編集後修正モジュールを提案する。
神経矯正モデルは、参照要約に一連のヒューリスティック変換を適用することによって生成される人工例に基づいて事前訓練される。
これらの変換は、最先端の要約モデル出力の誤差解析にインスパイアされている。
実験の結果,本モデルはcnn/dailymailデータセットの事実整合性評価において,他の神経要約モデルによって生成された要約の事実誤りを訂正でき,先行モデルよりも優れていた。
また、人工的なエラー訂正から下流の設定への移行は依然として非常に難しい。
関連論文リスト
- Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Correcting Diverse Factual Errors in Abstractive Summarization via
Post-Editing and Language Model Infilling [56.70682379371534]
提案手法は, 誤要約の修正において, 従来手法よりもはるかに優れていることを示す。
我々のモデルであるFactEditは、CNN/DMで11点、XSumで31点以上のファクトリティスコアを改善する。
論文 参考訳(メタデータ) (2022-10-22T07:16:19Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Understanding Factual Errors in Summarization: Errors, Summarizers,
Datasets, Error Detectors [105.12462629663757]
本研究では、既存の9つのデータセットから事実性エラーアノテーションを集約し、基礎となる要約モデルに従ってそれらを階層化する。
本稿では,この階層化ベンチマークにおいて,最近のChatGPTベースの指標を含む最先端の事実性指標の性能を比較し,その性能が様々な種類の要約モデルで大きく異なることを示す。
論文 参考訳(メタデータ) (2022-05-25T15:26:48Z) - CLIFF: Contrastive Learning for Improving Faithfulness and Factuality in
Abstractive Summarization [6.017006996402699]
我々は、与えられた記事に忠実で事実に整合した抽象的な要約を生成することを研究する。
参照要約を正のトレーニングデータとして活用し、誤要約を負のトレーニングデータとして自動生成し、両者を区別し易い要約システムを訓練する、新しいコントラスト学習定式化を提案する。
論文 参考訳(メタデータ) (2021-09-19T20:05:21Z) - Annotating and Modeling Fine-grained Factuality in Summarization [36.88018450067003]
実際に使用する上での大きな障壁は、入力に忠実ではなく、事実的誤りを含む要約を出力する確率である。
要約の事実的誤りを識別するために,学習モデルのための合成データと人間ラベルデータの両方を探索する。
我々は,学習データ中の非実写トークンを識別することにより,より実写的なXSum要約モデルのトレーニングを可能にすることを示す。
論文 参考訳(メタデータ) (2021-04-09T11:20:44Z) - Recoding latent sentence representations -- Dynamic gradient-based
activation modification in RNNs [0.0]
RNNでは、サブオプティマティックな方法で情報をエンコーディングすることは、シーケンスの後の要素に基づいて表現の質に影響を与える可能性がある。
勾配に基づく補正機構を用いて,標準RNNへの拡張を提案する。
言語モデリングの文脈で異なる実験を行い、そのようなメカニズムを使うことによる影響を詳細に調べる。
論文 参考訳(メタデータ) (2021-01-03T17:54:17Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。