論文の概要: Reducing Hallucinations in Summarization via Reinforcement Learning with Entity Hallucination Index
- arxiv url: http://arxiv.org/abs/2507.22744v1
- Date: Wed, 30 Jul 2025 15:00:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.271682
- Title: Reducing Hallucinations in Summarization via Reinforcement Learning with Entity Hallucination Index
- Title(参考訳): エンティティ幻覚指数を用いた強化学習による要約における幻覚の低減
- Authors: Praveenkumar Katwe, Rakesh Chandra, Balabantaray Kali, Prasad Vittala,
- Abstract要約: Entity Hallucination Index(EHI)の最適化のために、報酬駆動の微調整フレームワークを導入する。
EHI(英: EHI)は、生成された要約における名前の実体の存在、正しさ、根拠を定量化するために設計された計量である。
弊社のアプローチは、人書きの事実性アノテーションに頼らず、スケーラブルな微調整を可能にする。
- 参考スコア(独自算出の注目度): 2.2427832125073737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reducing hallucinations in abstractive summarization remains a critical challenge for deploying language models (LMs) in real-world settings. In this work, we introduce a rewarddriven fine-tuning framework that explicitly optimizes for Entity Hallucination Index (EHI), a metric designed to quantify the presence, correctness, and grounding of named entities in generated summaries. Given a corpus of meeting transcripts, we first generate baseline summaries using a pre-trained LM and compute EHI scores via automatic entity extraction and matching. We then apply reinforcement learning to fine-tune the model parameters, using EHI as a reward signal to bias generation toward entity-faithful outputs. Our approach does not rely on human-written factuality annotations, enabling scalable fine-tuning. Experiments demonstrate consistent improvements in EHI across datasets, with qualitative analysis revealing a significant reduction in entity-level hallucinations without degradation in fluency or informativeness. We release a reproducible Colab pipeline, facilitating further research on hallucination-aware model fine-tuning using lightweight, hallucintion metrics like EHI.
- Abstract(参考訳): 抽象的な要約における幻覚の低減は、現実の環境で言語モデル(LM)をデプロイする上で重要な課題である。
本研究では,エンティティ幻覚指数(EHI)を明示的に最適化する報奨駆動の微調整フレームワークを導入する。
まず,事前学習したLMを用いてベースラインサマリーを生成し,自動エンティティ抽出とマッチングによりEHIスコアを算出する。
次に、モデルパラメータを微調整するために強化学習を適用し、EHIを報酬信号として利用し、エンティティに忠実な出力に対するバイアスを生成する。
弊社のアプローチは、人書きの事実性アノテーションに頼らず、スケーラブルな微調整を可能にする。
実験では、データセット間でのEHIの一貫性の向上が実証され、定性的な分析により、フラエンシや情報度を低下させることなく、エンティティレベルの幻覚を著しく低下させることが示された。
我々は再現可能なColabパイプラインをリリースし、EHIのような軽量な幻覚測定値を用いた幻覚認識モデル微調整のさらなる研究を支援した。
関連論文リスト
- Mitigating Object Hallucinations via Sentence-Level Early Intervention [10.642552315531404]
マルチモーダルな大言語モデル(MLLM)は、多モーダルな理解に革命をもたらしたが、幻覚と闘い続けている。
人間のアノテーションに依存しないフレームワークであるSENTINELを提案する。
文レベルの早期iNtervention through IN- domain preference Learningは、オリジナルのモデルと比較して幻覚を90%以上減らすことができる。
論文 参考訳(メタデータ) (2025-07-16T17:55:43Z) - HalluLens: LLM Hallucination Benchmark [49.170128733508335]
大規模言語モデル(LLM)は、しばしばユーザ入力やトレーニングデータから逸脱する応答を生成する。
本稿では,新たな内因性評価タスクと既存内因性評価タスクを併用した総合幻覚ベンチマークを提案する。
論文 参考訳(メタデータ) (2025-04-24T13:40:27Z) - ANAH-v2: Scaling Analytical Hallucination Annotation of Large Language Models [65.12177400764506]
大規模言語モデル (LLM) は、様々な領域や広範囲のアプリケーションにまたがる、長い形式の質問応答タスクにおいて幻覚を示す。
現在の幻覚検出と緩和データセットはドメインやサイズによって制限されている。
本稿では,幻覚アノテーションデータセットを同時に,段階的にスケールアップする反復的自己学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-05T17:56:38Z) - Detecting and Mitigating Hallucination in Large Vision Language Models via Fine-Grained AI Feedback [40.930238150365795]
我々は,LVLM(Large Vision Language Models)における幻覚の検出と緩和について,きめ細かいAIフィードバックを用いて提案する。
プロプライエタリモデルによる小型幻覚アノテーションデータセットを生成する。
そこで本研究では,幻覚緩和モデルの訓練のための選好データセットを自動構築する検出テーマ書き換えパイプラインを提案する。
論文 参考訳(メタデータ) (2024-04-22T14:46:10Z) - Alleviating Hallucinations of Large Language Models through Induced
Hallucinations [67.35512483340837]
大規模言語モデル(LLM)は、不正確な情報や製造された情報を含む応答を生成するために観察されている。
幻覚を緩和するための単純なtextitInduce-then-Contrast Decoding (ICD) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-25T12:32:49Z) - Hallucination Reduction in Long Input Text Summarization [2.6745438139282283]
テキスト要約における幻覚は、生成された要約の正確さと信頼性に重大な障害をもたらす。
我々は、Longformer-Decoder(LED)モデルの微調整に、データフィルタリングとジョイントエンティティと要約生成(JAENS)の技法を取り入れた。
実験の結果, 微調整LEDモデルでは, 紙の抽象的な生成が良好であることがわかった。
論文 参考訳(メタデータ) (2023-09-28T18:22:16Z) - Detecting Hallucinated Content in Conditional Neural Sequence Generation [165.68948078624499]
出力シーケンスの各トークンが(入力に含まれていない)幻覚化されているかどうかを予測するタスクを提案する。
また、合成データに微調整された事前学習言語モデルを用いて幻覚を検出する方法についても紹介する。
論文 参考訳(メタデータ) (2020-11-05T00:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。