論文の概要: Faithfulness-Aware Decoding Strategies for Abstractive Summarization
- arxiv url: http://arxiv.org/abs/2303.03278v1
- Date: Mon, 6 Mar 2023 16:49:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 15:18:44.111932
- Title: Faithfulness-Aware Decoding Strategies for Abstractive Summarization
- Title(参考訳): 抽象要約のための忠実性を考慮した復号化戦略
- Authors: David Wan, Mengwen Liu, Kathleen McKeown, Markus Dreyer, Mohit Bansal
- Abstract要約: 本研究では,ビームサーチや核サンプリングなどの生成技術が抽象的な要約における忠実性に及ぼす影響について検討する。
本稿では,現在の生成技術よりも忠実性を高めるための2つの忠実度認識生成手法を提案する。
- 参考スコア(独自算出の注目度): 72.74188956905712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite significant progress in understanding and improving faithfulness in
abstractive summarization, the question of how decoding strategies affect
faithfulness is less studied. We present a systematic study of the effect of
generation techniques such as beam search and nucleus sampling on faithfulness
in abstractive summarization. We find a consistent trend where beam search with
large beam sizes produces the most faithful summaries while nucleus sampling
generates the least faithful ones. We propose two faithfulness-aware generation
methods to further improve faithfulness over current generation techniques: (1)
ranking candidates generated by beam search using automatic faithfulness
metrics and (2) incorporating lookahead heuristics that produce a faithfulness
score on the future summary. We show that both generation methods significantly
improve faithfulness across two datasets as evaluated by four automatic
faithfulness metrics and human evaluation. To reduce computational cost, we
demonstrate a simple distillation approach that allows the model to generate
faithful summaries with just greedy decoding. Our code is publicly available at
https://github.com/amazon-science/faithful-summarization-generation
- Abstract(参考訳): 抽象的な要約における信条の理解と改善の著しい進歩にもかかわらず、復号戦略が信条にどう影響するかという問題は少ない。
本稿では,ビーム探索や核サンプリングといった生成手法が抽象要約における忠実性に与える影響を体系的に研究する。
ビームサイズが大きいビームサーチが最も忠実なサマリーを生成する一方、核サンプリングが最も忠実でないサマリーを生成するという一貫した傾向を見出す。
提案手法は,(1)自動忠実度指標を用いたビームサーチによって生成される候補のランク付け,(2)将来の要約に忠実度スコアを生成するルックアヘッドヒューリスティックを取り入れた2つの信頼度認識生成手法を提案する。
4つの自動忠実度測定値と人的評価値から2つのデータセット間の信頼度を有意に向上することを示す。
計算コストを削減するため,モデルがグリーディ復号化だけで忠実な要約を生成できる簡単な蒸留手法を実証した。
私たちのコードはhttps://github.com/amazon-science/faithful-summarization-generationで公開されています。
関連論文リスト
- Detecting, Explaining, and Mitigating Memorization in Diffusion Models [49.438362005962375]
そこで本研究では,テキスト条件予測の大きさを検査することで,暗黙のプロンプトを検出する方法を提案する。
提案手法はサンプリングアルゴリズムを中断することなくシームレスに統合し,第1世代でも高い精度を実現する。
検出戦略に基づいて,個々の単語やトークンの記憶への寄与を示す説明可能なアプローチを提示する。
論文 参考訳(メタデータ) (2024-07-31T16:13:29Z) - Factually Consistent Summarization via Reinforcement Learning with
Textual Entailment Feedback [57.816210168909286]
我々は,この問題を抽象的な要約システムで解くために,テキストエンテーメントモデルの最近の進歩を活用している。
我々は、事実整合性を最適化するために、レファレンスフリーのテキストエンターメント報酬を用いた強化学習を用いる。
自動測定と人的評価の両結果から,提案手法は生成した要約の忠実さ,サリエンス,簡潔さを著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-05-31T21:04:04Z) - Curriculum-Guided Abstractive Summarization [45.57561926145256]
最近のTransformerベースの要約モデルは、抽象的な要約に有望なアプローチを提供してきた。
これらのモデルには2つの欠点がある:(1)コンテンツ選択が不十分な場合が多く、(2)トレーニング戦略があまり効率的ではないため、モデルの性能が制限される。
本稿では,これらの落とし穴を補うための2つの方法について検討する。まず,デコーダ内に文のクロスアテンションモジュールを配置することでトランスフォーマーネットワークを拡張し,より健全なコンテンツの抽象化を促進する。
論文 参考訳(メタデータ) (2023-02-02T11:09:37Z) - FRSUM: Towards Faithful Abstractive Summarization via Enhancing Factual
Robustness [56.263482420177915]
我々は,既存のシステムの忠実さを,事実的堅牢性という新たな視点から研究する。
本研究では,新たなトレーニング戦略,すなわちFRSUMを提案し,そのモデルに対して,暗黙の対角的サンプルと暗黙の対向的摂動の両方を防御するように指導する。
論文 参考訳(メタデータ) (2022-11-01T06:09:00Z) - Faithful or Extractive? On Mitigating the Faithfulness-Abstractiveness
Trade-off in Abstractive Summarization [38.11686971309104]
本稿では,要約システムの有効忠実度を評価するための枠組みを提案する。
我々は,同レベルの抽象性のコントロールよりも,信頼度・強引性トレードオフを達成できることを実証した。
論文 参考訳(メタデータ) (2021-08-31T08:48:25Z) - Integrating Semantics and Neighborhood Information with Graph-Driven
Generative Models for Document Retrieval [51.823187647843945]
本稿では,周辺情報をグラフ誘導ガウス分布でエンコードし,その2種類の情報をグラフ駆動生成モデルと統合することを提案する。
この近似の下では、トレーニング対象がシングルトンまたはペアワイズ文書のみを含む用語に分解可能であることを証明し、モデルが非関連文書と同じくらい効率的にトレーニングできることを示す。
論文 参考訳(メタデータ) (2021-05-27T11:29:03Z) - Towards Faithfulness in Open Domain Table-to-text Generation from an
Entity-centric View [32.55492881022101]
テーブルレコードのカバレッジとテキスト中の幻覚エンティティの比率の2つのエンティティ中心のメトリクスで生成忠実度を評価します。
提案手法は,(1)強化計画ベースモデルと非教師なしモデルの両方を含む補助エンティティ情報を取り入れた強化学習と,(2)忠実度ランキングに基づくトレーニングインスタンス選択の2つである。
論文 参考訳(メタデータ) (2021-02-17T05:41:06Z) - A Transformer-based Approach for Source Code Summarization [86.08359401867577]
コードトークン間のペア関係をモデル化することにより,要約のためのコード表現を学習する。
アプローチは単純であるにもかかわらず、最先端技術よりもかなりの差があることが示される。
論文 参考訳(メタデータ) (2020-05-01T23:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。