論文の概要: Bolster Hallucination Detection via Prompt-Guided Data Augmentation
- arxiv url: http://arxiv.org/abs/2510.15977v1
- Date: Mon, 13 Oct 2025 02:06:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.740285
- Title: Bolster Hallucination Detection via Prompt-Guided Data Augmentation
- Title(参考訳): Prompt-Guided Data AugmentationによるBolster Hallucination検出
- Authors: Wenyun Li, Zheng Zhang, Dongmei Jiang, Xiangyuan Lan,
- Abstract要約: 本稿では,幻覚検出のためのデータ拡張として,prompt-guided Data Augmented haLlucination dEtection (PALE)を導入した。
このフレームワークは、プロンプトガイダンスの下で、真理と幻覚の両方のデータを比較的低コストで生成することができる。
実験では、PALEは優れた幻覚検出性能を達成し、競争ベースラインを6.55%で上回った。
- 参考スコア(独自算出の注目度): 33.98592618879001
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large language models (LLMs) have garnered significant interest in AI community. Despite their impressive generation capabilities, they have been found to produce misleading or fabricated information, a phenomenon known as hallucinations. Consequently, hallucination detection has become critical to ensure the reliability of LLM-generated content. One primary challenge in hallucination detection is the scarcity of well-labeled datasets containing both truthful and hallucinated outputs. To address this issue, we introduce Prompt-guided data Augmented haLlucination dEtection (PALE), a novel framework that leverages prompt-guided responses from LLMs as data augmentation for hallucination detection. This strategy can generate both truthful and hallucinated data under prompt guidance at a relatively low cost. To more effectively evaluate the truthfulness of the sparse intermediate embeddings produced by LLMs, we introduce an estimation metric called the Contrastive Mahalanobis Score (CM Score). This score is based on modeling the distributions of truthful and hallucinated data in the activation space. CM Score employs a matrix decomposition approach to more accurately capture the underlying structure of these distributions. Importantly, our framework does not require additional human annotations, offering strong generalizability and practicality for real-world applications. Extensive experiments demonstrate that PALE achieves superior hallucination detection performance, outperforming the competitive baseline by a significant margin of 6.55%.
- Abstract(参考訳): 大規模言語モデル(LLM)は、AIコミュニティにおいて大きな関心を集めている。
その印象的な生成能力にもかかわらず、幻覚として知られる誤った情報や偽造情報を生み出すことが発見されている。
その結果、LLM生成コンテンツの信頼性を確保するために幻覚検出が重要になっている。
幻覚検出の第一の課題は、真理と幻覚の両方の出力を含むよくラベルされたデータセットの不足である。
この問題に対処するため, 幻覚検出のためのデータ拡張として LLM からのプロンプト誘導応答を利用する新しいフレームワークである Prompt-guided Data Augmented haLlucination dEtection (PALE) を導入する。
この戦略は、プロンプトガイダンスの下で、真理と幻覚の両方のデータを比較的低コストで生成することができる。
LLMが生成するスパース中間埋め込みの真偽をより効果的に評価するために,Contrastive Mahalanobis Score (CMスコア) と呼ばれる推定基準を導入する。
このスコアは、活性化空間における真理および幻覚データの分布をモデル化することに基づいている。
CM Scoreは行列分解法を用いて、これらの分布の基盤構造をより正確に捉える。
重要なことは、我々のフレームワークは人間のアノテーションを必要とせず、現実世界のアプリケーションに強力な一般化性と実用性を提供します。
大規模な実験により、PALEは優れた幻覚検出性能を示し、競争ベースラインを6.55%の差で上回った。
関連論文リスト
- Reducing Hallucinations in Summarization via Reinforcement Learning with Entity Hallucination Index [2.2427832125073737]
Entity Hallucination Index(EHI)の最適化のために、報酬駆動の微調整フレームワークを導入する。
EHI(英: EHI)は、生成された要約における名前の実体の存在、正しさ、根拠を定量化するために設計された計量である。
弊社のアプローチは、人書きの事実性アノテーションに頼らず、スケーラブルな微調整を可能にする。
論文 参考訳(メタデータ) (2025-07-30T15:00:00Z) - HalluLens: LLM Hallucination Benchmark [49.170128733508335]
大規模言語モデル(LLM)は、しばしばユーザ入力やトレーニングデータから逸脱する応答を生成する。
本稿では,新たな内因性評価タスクと既存内因性評価タスクを併用した総合幻覚ベンチマークを提案する。
論文 参考訳(メタデータ) (2025-04-24T13:40:27Z) - REFIND at SemEval-2025 Task 3: Retrieval-Augmented Factuality Hallucination Detection in Large Language Models [15.380441563675243]
REFIND(Retrieval-augmented Factuality Hallucination Detection)は、大規模言語モデル(LLM)出力内の幻覚スパンを検出する新しいフレームワークである。
本研究では,LLM出力の感度を定量的に評価する新しい指標であるコンテキスト感度比(CSR)を提案する。
REFINDは低リソース設定を含む9つの言語で堅牢性を示し、ベースラインモデルではかなり優れていた。
論文 参考訳(メタデータ) (2025-02-19T10:59:05Z) - Mitigating Entity-Level Hallucination in Large Language Models [11.872916697604278]
本稿では,大規模言語モデル(LLM)における幻覚の検出・緩和手法として,幻覚検出(DRAD)に基づく動的検索拡張を提案する。
実験の結果,LDMにおける幻覚の検出と緩和の両面において,DRADは優れた性能を示した。
論文 参考訳(メタデータ) (2024-07-12T16:47:34Z) - HypoTermQA: Hypothetical Terms Dataset for Benchmarking Hallucination
Tendency of LLMs [0.0]
幻覚は、大規模言語モデル(LLM)の信頼性と整合性に重大な課題をもたらす
本稿では,LLMの幻覚傾向のベンチマークと効率的な幻覚検出を組み合わせた,スケーラブルな自動フレームワークを提案する。
フレームワークはドメインに依存しないため、任意のドメインでのベンチマーク作成や評価に任意の言語モデルを使用することができる。
論文 参考訳(メタデータ) (2024-02-25T22:23:37Z) - Rowen: Adaptive Retrieval-Augmented Generation for Hallucination Mitigation in LLMs [88.75700174889538]
幻覚は大きな言語モデル(LLM)にとって大きな課題となる。
実物生成におけるパラメトリック知識の利用は, LLMの限られた知識によって制限される。
本稿では,幻覚出力に対応する適応的検索拡張プロセスによりLLMを強化する新しいフレームワークであるRowenについて述べる。
論文 参考訳(メタデータ) (2024-02-16T11:55:40Z) - Enhancing Uncertainty-Based Hallucination Detection with Stronger Focus [99.33091772494751]
大規模言語モデル(LLM)は、様々な分野にわたる印象的なパフォーマンスで大きな人気を集めている。
LLMは、ユーザの期待を満たさない非現実的あるいは非感覚的なアウトプットを幻覚させる傾向がある。
LLMにおける幻覚を検出するための新しい基準のない不確実性に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T08:39:17Z) - FactCHD: Benchmarking Fact-Conflicting Hallucination Detection [64.4610684475899]
FactCHD は LLM からファクトコンフリクトの幻覚を検出するために設計されたベンチマークである。
FactCHDは、バニラ、マルチホップ、比較、セット操作など、さまざまな事実パターンにまたがる多様なデータセットを備えている。
Llama2 に基づくツール強化 ChatGPT と LoRA-tuning による反射的考察を合成する Truth-Triangulator を提案する。
論文 参考訳(メタデータ) (2023-10-18T16:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。