論文の概要: Reducing Hallucinations in Entity Abstract Summarization with
Facts-Template Decomposition
- arxiv url: http://arxiv.org/abs/2402.18873v1
- Date: Thu, 29 Feb 2024 05:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 16:05:25.400587
- Title: Reducing Hallucinations in Entity Abstract Summarization with
Facts-Template Decomposition
- Title(参考訳): Factsテンプレート分解によるエンティティ抽象要約における幻覚の低減
- Authors: Fangwei Zhu, Peiyi Wang, Zhifang Sui
- Abstract要約: 要約を2つの要素に分解する: 与えられたエンティティの事実情報を表すファクトと、指定したスロットをファクトに含むジェネリックコンテンツを構成するテンプレート。
そこで本研究では,エンティティ抽象要約のための説明可能なフレームワークであるSlotSumを提案する。
SlotSumは、事実のテンポレート分解に相応しいので、容易にエラーを見つけ出し、さらに外部の知識で幻覚予測を修正できます。
- 参考スコア(独自算出の注目度): 27.594783675635572
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Entity abstract summarization aims to generate a coherent description of a
given entity based on a set of relevant Internet documents. Pretrained language
models (PLMs) have achieved significant success in this task, but they may
suffer from hallucinations, i.e. generating non-factual information about the
entity. To address this issue, we decompose the summary into two components:
Facts that represent the factual information about the given entity, which PLMs
are prone to fabricate; and Template that comprises generic content with
designated slots for facts, which PLMs can generate competently. Based on the
facts-template decomposition, we propose SlotSum, an explainable framework for
entity abstract summarization. SlotSum first creates the template and then
predicts the fact for each template slot based on the input documents.
Benefiting from our facts-template decomposition, SlotSum can easily locate
errors and further rectify hallucinated predictions with external knowledge. We
construct a new dataset WikiFactSum to evaluate the performance of SlotSum.
Experimental results demonstrate that SlotSum could generate summaries that are
significantly more factual with credible external knowledge.
- Abstract(参考訳): エンティティ抽象要約は、関連するインターネット文書の集合に基づいて、与えられたエンティティのコヒーレントな記述を生成することを目的としている。
事前訓練された言語モデル(PLM)は、このタスクで大きな成功を収めたが、幻覚、すなわちエンティティに関する非現実的な情報の生成に悩まされる可能性がある。
この問題に対処するために,我々は,plmが作成し易い与えられたエンティティに関する事実情報を表す事実と,plmが有能に生成できる事実のスロットが指定された汎用コンテンツを含むテンプレートの2つの構成要素に要約を分解する。
事実とテンプレートの分解に基づいて,エンティティ抽象要約のための説明可能なフレームワークであるslotsumを提案する。
SlotSumはまずテンプレートを作成し、入力されたドキュメントに基づいて各テンプレートスロットの事実を予測する。
SlotSumは、事実のテンポレート分解に相応しいので、容易にエラーを見つけ出し、外部知識で幻覚予測を修正できます。
SlotSumの性能を評価するために,新しいデータセットWikiFactSumを構築した。
実験の結果、SlotSumは信頼性のある外部知識でより現実的な要約を生成することができた。
関連論文リスト
- GUMsley: Evaluating Entity Salience in Summarization for 12 English
Genres [14.37990666928991]
GUMsleyは、12のジャンルの英語テキストに対して、名前付きおよび名前なしの敬意的エンティティを全てカバーする最初のエンティティ・サリエンス・データセットである。
いくつかのモデルアーキテクチャに対して健全なエンティティを予測または提供することにより、パフォーマンスが向上し、高品質なサマリーの導出に役立つことを示す。
論文 参考訳(メタデータ) (2024-01-31T16:30:50Z) - Hallucination Reduction in Long Input Text Summarization [2.6745438139282283]
テキスト要約における幻覚は、生成された要約の正確さと信頼性に重大な障害をもたらす。
我々は、Longformer-Decoder(LED)モデルの微調整に、データフィルタリングとジョイントエンティティと要約生成(JAENS)の技法を取り入れた。
実験の結果, 微調整LEDモデルでは, 紙の抽象的な生成が良好であることがわかった。
論文 参考訳(メタデータ) (2023-09-28T18:22:16Z) - Correcting Diverse Factual Errors in Abstractive Summarization via
Post-Editing and Language Model Infilling [56.70682379371534]
提案手法は, 誤要約の修正において, 従来手法よりもはるかに優れていることを示す。
我々のモデルであるFactEditは、CNN/DMで11点、XSumで31点以上のファクトリティスコアを改善する。
論文 参考訳(メタデータ) (2022-10-22T07:16:19Z) - Don't Say What You Don't Know: Improving the Consistency of Abstractive
Summarization by Constraining Beam Search [54.286450484332505]
本研究は,幻覚とトレーニングデータの関連性を解析し,学習対象の要約を学習した結果,モデルが幻覚を呈する証拠を見出した。
本稿では,ビーム探索を制約して幻覚を回避し,変換器をベースとした抽象要約器の整合性を向上させる新しい復号法であるPINOCCHIOを提案する。
論文 参考訳(メタデータ) (2022-03-16T07:13:52Z) - Enriching Transformers with Structured Tensor-Product Representations
for Abstractive Summarization [131.23966358405767]
抽象的な要約のタスクに対して,明示的に構成された製品表現(TPR)をTP-TRANSFORMERに適用する。
モデルの主な特徴は、トークンごとに2つの別々の表現を符号化することで導入する構造バイアスである。
本稿では,TP-TRANSFORMER が Transformer と TP-TRANSFORMER より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-02T17:32:33Z) - Entity-level Factual Consistency of Abstractive Text Summarization [26.19686599842915]
抽象要約の重要な課題は、生成した要約の原文書に対する事実的一貫性を保証することである。
生成した要約の実体レベルの事実整合性を定量化するための新しいメトリクスセットを提案する。
論文 参考訳(メタデータ) (2021-02-18T03:07:28Z) - Unsupervised Opinion Summarization with Content Planning [58.5308638148329]
要約モデルにコンテンツプランニングを明示的に組み込むことで、より高い品質のアウトプットが得られることを示す。
また、より自然な合成データセットを作成し、実世界の文書と要約のペアに似ている。
当社のアプローチは,情報的,一貫性,流動的な要約を生成する上で,競争モデルよりも優れています。
論文 参考訳(メタデータ) (2020-12-14T18:41:58Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Enhancing Factual Consistency of Abstractive Summarization [57.67609672082137]
ファクトアウェアな要約モデル FASum を提案し,実情関係を抽出し,要約生成プロセスに統合する。
次に,既存のシステムから生成した要約から事実誤りを自動的に補正する事実補正モデルFCを設計する。
論文 参考訳(メタデータ) (2020-03-19T07:36:10Z) - StructSum: Summarization via Structured Representations [27.890477913486787]
抽象テキスト要約は、長い資料の情報を要約した要約に圧縮することを目的としている。
モデリング技術の進歩にもかかわらず、抽象的な要約モデルは依然としていくつかの重要な課題に悩まされている。
本稿では,これらの課題に対処するための要約のための文書レベルの構造誘導に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-01T20:32:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。