論文の概要: Reducing Quantity Hallucinations in Abstractive Summarization
- arxiv url: http://arxiv.org/abs/2009.13312v1
- Date: Mon, 28 Sep 2020 13:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 21:48:53.056469
- Title: Reducing Quantity Hallucinations in Abstractive Summarization
- Title(参考訳): 抽象要約における量幻覚の低減
- Authors: Zheng Zhao, Shay B. Cohen, Bonnie Webber
- Abstract要約: ハーマンは、抽象的な要約のビーム・ワースにおける量的実体(日付、数字、金額など)を認識し検証することを学ぶ。
以上の結果から,上位のサマリーのROUGEスコアは上位のサマリーよりも高精度であることが示唆された。
上位と下位の要約の予備的人間評価は、前者に対する人々の好みを示している。
- 参考スコア(独自算出の注目度): 32.89486074807331
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well-known that abstractive summaries are subject to
hallucination---including material that is not supported by the original text.
While summaries can be made hallucination-free by limiting them to general
phrases, such summaries would fail to be very informative. Alternatively, one
can try to avoid hallucinations by verifying that any specific entities in the
summary appear in the original text in a similar context. This is the approach
taken by our system, Herman. The system learns to recognize and verify quantity
entities (dates, numbers, sums of money, etc.) in a beam-worth of abstractive
summaries produced by state-of-the-art models, in order to up-rank those
summaries whose quantity terms are supported by the original text. Experimental
results demonstrate that the ROUGE scores of such up-ranked summaries have a
higher Precision than summaries that have not been up-ranked, without a
comparable loss in Recall, resulting in higher F$_1$. Preliminary human
evaluation of up-ranked vs. original summaries shows people's preference for
the former.
- Abstract(参考訳): 抽象的な要約は、原文に支えられていない資料を含む幻覚の対象であることが知られている。
要約は一般の語句に限定することで幻覚のないものにすることができるが、そのような要約は情報に乏しい。
あるいは、要約中の特定のエンティティが同じ文脈で元のテキストに現れることを検証することで幻覚を避けようとすることもできる。
これが私たちのシステムであるHermanによるアプローチです。
本システムは、現在最先端のモデルが生成する抽象要約のビームワースにおける量実体(日付、数字、金額等)を認識し、検証することを学び、その量項が原文で支持されている要約を上書きする。
実験の結果, 上位のサマリーのROUGEスコアは, 上位のサマリーよりも精度が高く, リコールの損失に匹敵せず, F$_1$となることがわかった。
上位vs.オリジナル要約の予備的人間評価は、前者に対する人々の好みを示している。
関連論文リスト
- AugSumm: towards generalizable speech summarization using synthetic
labels from large language model [61.73741195292997]
抽象音声要約(SSUM)は、音声から人間に似た要約を生成することを目的としている。
従来のSSUMモデルは、主に、人間による注釈付き決定論的要約(英語版)を用いて訓練され、評価されている。
AugSummは,人間のアノテータが拡張要約を生成するためのプロキシとして,大規模言語モデル(LLM)を利用する手法である。
論文 参考訳(メタデータ) (2024-01-10T18:39:46Z) - Correction with Backtracking Reduces Hallucination in Summarization [29.093092115901694]
抽象要約は、重要な要素を保存しながら簡潔なソースドキュメントの自然言語要約を生成することを目的としている。
近年の進歩にもかかわらず、神経文の要約モデルは幻覚に感受性があることが知られている。
本稿では,抽象的な要約における幻覚を低減するため,シンプルだが効率的な手法であるCoBaを紹介する。
論文 参考訳(メタデータ) (2023-10-24T20:48:11Z) - Enhancing Abstractiveness of Summarization Models through Calibrated
Distillation [30.199051061633803]
DisCalは、情報を犠牲にすることなく抽象性のレベルを高める新しいアプローチである。
以上の結果から,DisCalは従来の抽象的な要約蒸留法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-10-20T18:43:49Z) - Factually Consistent Summarization via Reinforcement Learning with
Textual Entailment Feedback [57.816210168909286]
我々は,この問題を抽象的な要約システムで解くために,テキストエンテーメントモデルの最近の進歩を活用している。
我々は、事実整合性を最適化するために、レファレンスフリーのテキストエンターメント報酬を用いた強化学習を用いる。
自動測定と人的評価の両結果から,提案手法は生成した要約の忠実さ,サリエンス,簡潔さを著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-05-31T21:04:04Z) - Generating Multiple-Length Summaries via Reinforcement Learning for
Unsupervised Sentence Summarization [44.835811239393244]
文要約は、テキストの中核的な内容を維持しながら与えられたテキストを短縮する。
人書きの要約のないテキストを要約するために、教師なしのアプローチが研究されている。
本研究では, 基礎構造を含まない強化学習に基づく抽象モデルを提案する。
論文 参考訳(メタデータ) (2022-12-21T08:34:28Z) - Salience Allocation as Guidance for Abstractive Summarization [61.31826412150143]
本稿では, サリエンセ・サリエンス・ガイダンス(SEASON, SaliencE Allocation as Guidance for Abstractive SummarizatiON)を用いた新しい要約手法を提案する。
SEASONは、サリエンス予測の割り当てを利用して抽象的な要約を導き、異なる抽象性のある記事に順応する。
論文 参考訳(メタデータ) (2022-10-22T02:13:44Z) - Don't Say What You Don't Know: Improving the Consistency of Abstractive
Summarization by Constraining Beam Search [54.286450484332505]
本研究は,幻覚とトレーニングデータの関連性を解析し,学習対象の要約を学習した結果,モデルが幻覚を呈する証拠を見出した。
本稿では,ビーム探索を制約して幻覚を回避し,変換器をベースとした抽象要約器の整合性を向上させる新しい復号法であるPINOCCHIOを提案する。
論文 参考訳(メタデータ) (2022-03-16T07:13:52Z) - Inspecting the Factuality of Hallucinated Entities in Abstractive
Summarization [36.052622624166894]
State-of-the-art abstractive summarization system(最先端の抽象的な要約システム)は、しばしば、源文から直接推測できない内容(Emphhallucination)を生成する。
本研究では,実体の非現実的幻覚から事実を分離する新たな検出手法を提案する。
論文 参考訳(メタデータ) (2021-08-30T15:40:52Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Enhancing Factual Consistency of Abstractive Summarization [57.67609672082137]
ファクトアウェアな要約モデル FASum を提案し,実情関係を抽出し,要約生成プロセスに統合する。
次に,既存のシステムから生成した要約から事実誤りを自動的に補正する事実補正モデルFCを設計する。
論文 参考訳(メタデータ) (2020-03-19T07:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。