論文の概要: CO2Sum:Contrastive Learning for Factual-Consistent Abstractive
Summarization
- arxiv url: http://arxiv.org/abs/2112.01147v1
- Date: Thu, 2 Dec 2021 11:52:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-04 00:11:54.861609
- Title: CO2Sum:Contrastive Learning for Factual-Consistent Abstractive
Summarization
- Title(参考訳): CO2Sum:Factual-Consistent Abstractive Summarizationのためのコントラスト学習
- Authors: Wei Liu, Huanqin Wu, Wenjing Mu, Zhen Li, Tao Chen, Dan Nie
- Abstract要約: CO2Sumは、シーケンス・ツー・シーケンス・モデルに容易に適用可能なコントラスト学習方式である。
公開ベンチマークの実験では、CO2Sumは大規模な事前訓練された言語モデルの忠実性を改善することが示されている。
- 参考スコア(独自算出の注目度): 11.033949886530225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating factual-consistent summaries is a challenging task for abstractive
summarization. Previous works mainly encode factual information or perform
post-correct/rank after decoding. In this paper, we provide a
factual-consistent solution from the perspective of contrastive learning, which
is a natural extension of previous works. We propose CO2Sum (Contrastive for
Consistency), a contrastive learning scheme that can be easily applied on
sequence-to-sequence models for factual-consistent abstractive summarization,
proving that the model can be fact-aware without modifying the architecture.
CO2Sum applies contrastive learning on the encoder, which can help the model be
aware of the factual information contained in the input article, or performs
contrastive learning on the decoder, which makes the model to generate
factual-correct output summary. What's more, these two schemes are orthogonal
and can be combined to further improve faithfulness. Comprehensive experiments
on public benchmarks demonstrate that CO2Sum improves the faithfulness on large
pre-trained language models and reaches competitive results compared to other
strong factual-consistent summarization baselines.
- Abstract(参考訳): 事実一貫性の要約を生成することは抽象的な要約にとって難しい課題である。
以前の作品は、主に事実情報をエンコードするか、デコード後に後訂正/ランク付けを行う。
本稿では,先行研究の自然な拡張であるコントラスト学習の観点から,事実一貫性のある解を提案する。
そこで本研究では,事実一貫性のある抽象要約のためのシーケンス-シーケンスモデルに容易に適用可能な比較学習手法であるco2sum(contrastive for consistency)を提案する。
co2sumは、エンコーダにコントラスト学習を適用することで、モデルが入力記事に含まれる事実情報を認識するのを手助けしたり、デコーダ上でコントラスト学習を行うことができる。
さらに、これらの2つのスキームは直交的であり、さらに忠実性を改善するために組み合わせることができる。
公的なベンチマークに関する総合的な実験により、CO2Sumは大きな事前訓練された言語モデルの忠実さを改善し、他の強い事実一貫性の要約ベースラインと比較して競争力に達することを示した。
関連論文リスト
- Improving Factuality of Abstractive Summarization via Contrastive Reward
Learning [77.07192378869776]
本稿では,報酬学習と実効性指標の最近の発展を取り入れた,シンプルだが効果的なコントラスト学習フレームワークを提案する。
実証的研究により,提案手法により,実測値のフィードバックから要約モデルを学習できることが実証された。
論文 参考訳(メタデータ) (2023-07-10T12:01:18Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Correcting Diverse Factual Errors in Abstractive Summarization via
Post-Editing and Language Model Infilling [56.70682379371534]
提案手法は, 誤要約の修正において, 従来手法よりもはるかに優れていることを示す。
我々のモデルであるFactEditは、CNN/DMで11点、XSumで31点以上のファクトリティスコアを改善する。
論文 参考訳(メタデータ) (2022-10-22T07:16:19Z) - Towards Improving Faithfulness in Abstractive Summarization [37.19777407790153]
本稿では,抽象的な要約における忠実度を改善するために,FES(Fithfulness Enhanced Summarization Model)を提案する。
我々のモデルはCNN/DMとXSumの実験において強いベースラインを上回ります。
論文 参考訳(メタデータ) (2022-10-04T19:52:09Z) - FactPEGASUS: Factuality-Aware Pre-training and Fine-tuning for
Abstractive Summarization [91.46015013816083]
本稿では,FactPEGについて述べる。FactPEGは,事前学習と微調整における現実性の問題に対処する抽象的な要約モデルである。
分析の結果,FactPEGはゼロショットやスプリショットの設定において,本来の事前学習目標よりも現実的であることが示唆された。
論文 参考訳(メタデータ) (2022-05-16T17:39:14Z) - CLIFF: Contrastive Learning for Improving Faithfulness and Factuality in
Abstractive Summarization [6.017006996402699]
我々は、与えられた記事に忠実で事実に整合した抽象的な要約を生成することを研究する。
参照要約を正のトレーニングデータとして活用し、誤要約を負のトレーニングデータとして自動生成し、両者を区別し易い要約システムを訓練する、新しいコントラスト学習定式化を提案する。
論文 参考訳(メタデータ) (2021-09-19T20:05:21Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z) - Knowledge Graph-Augmented Abstractive Summarization with Semantic-Driven
Cloze Reward [42.925345819778656]
本稿では,グラフ拡張と意味駆動型RewarDによる抽象要約のための新しいフレームワークであるASGARDを紹介する。
本稿では,2つのエンコーダ(シーケンシャル文書エンコーダ)とグラフ構造化エンコーダ(グラフ構造化エンコーダ)の利用を提案する。
その結果、我々のモデルは、New York TimesとCNN/Daily Mailのデータセットからの入力として、知識グラフのない変種よりもはるかに高いROUGEスコアを生成することがわかった。
論文 参考訳(メタデータ) (2020-05-03T18:23:06Z) - Enhancing Factual Consistency of Abstractive Summarization [57.67609672082137]
ファクトアウェアな要約モデル FASum を提案し,実情関係を抽出し,要約生成プロセスに統合する。
次に,既存のシステムから生成した要約から事実誤りを自動的に補正する事実補正モデルFCを設計する。
論文 参考訳(メタデータ) (2020-03-19T07:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。