論文の概要: Lyapunov Probes for Hallucination Detection in Large Foundation Models
- arxiv url: http://arxiv.org/abs/2603.06081v1
- Date: Fri, 06 Mar 2026 09:32:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.493786
- Title: Lyapunov Probes for Hallucination Detection in Large Foundation Models
- Title(参考訳): Lyapunov Probes for Hallucination Detection in Large Foundation Models
- Authors: Bozhi Luan, Gen Li, Yalan Qin, Jifeng Guo, Yun Zhou, Faguo Wu, Hongwei Zheng, Wenjun Wu, Zhaoxin Fan,
- Abstract要約: 幻覚は、安定ゾーンと不安定ゾーンを分ける知識遷移領域の境界で生じる傾向がある。
Lyapunov Probes: デリバティブベースの安定性制約で訓練された軽量ネットワークを提案する。
多様なデータセットとモデルの実験は、既存のベースラインよりも一貫した改善を示している。
- 参考スコア(独自算出の注目度): 27.51972811669081
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address hallucination detection in Large Language Models (LLMs) and Multimodal Large Language Models (MLLMs) by framing the problem through the lens of dynamical systems stability theory. Rather than treating hallucination as a straightforward classification task, we conceptualize (M)LLMs as dynamical systems, where factual knowledge is represented by stable equilibrium points within the representation space. Our main insight is that hallucinations tend to arise at the boundaries of knowledge-transition regions separating stable and unstable zones. To capture this phenomenon, we propose Lyapunov Probes: lightweight networks trained with derivative-based stability constraints that enforce a monotonic decay in confidence under input perturbations. By performing systematic perturbation analysis and applying a two-stage training process, these probes reliably distinguish between stable factual regions and unstable, hallucination-prone regions. Experiments on diverse datasets and models demonstrate consistent improvements over existing baselines.
- Abstract(参考訳): 本稿では,力学系安定性理論のレンズを用いて,MLLM(Large Language Models)とMLLM(Multimodal Large Language Models)の幻覚検出に対処する。
幻覚を単純な分類課題として扱うのではなく、(M)LLMを力学系として概念化し、実数知識は表現空間内の安定平衡点によって表される。
我々の主な洞察は、幻覚は、安定ゾーンと不安定ゾーンを分ける知識遷移領域の境界で生じる傾向があるということである。
この現象を捉えるために、Lyapunov Probes: 入力摂動下での単調崩壊を強制するデリバティブベースの安定性制約で訓練された軽量ネットワークを提案する。
系統的な摂動解析を行い、2段階の訓練プロセスを適用することにより、これらのプローブは安定な事実領域と不安定な幻覚性領域を確実に区別する。
多様なデータセットとモデルの実験は、既存のベースラインよりも一貫した改善を示している。
関連論文リスト
- Ground What You See: Hallucination-Resistant MLLMs via Caption Feedback, Diversity-Aware Sampling, and Conflict Regularization [38.469173375694076]
マルチモーダル大言語モデル(MLLM)における幻覚の根本原因を系統的に解析する。
1)不正確な初期記述が後続の推論を誤った前提に固定する連鎖的視覚推論の過度な信頼、(2)政策最適化中の探索の多様性が不十分で、過度に自信があるが誤ったアウトプットを発生させる要因、(3)トレーニングサンプル間の破壊的な衝突、NTKの類似性が誤関連や不安定なパラメータ更新を引き起こす要因である。
実験の結果,提案手法は幻覚率を著しく低減し,MLLMの推論精度を効果的に向上することが示された。
論文 参考訳(メタデータ) (2026-01-09T07:59:18Z) - Grounding the Ungrounded: A Spectral-Graph Framework for Quantifying Hallucinations in Multimodal LLMs [19.099044165107696]
MLLMの幻覚を定量化する拡散力学における厳密な情報幾何学的枠組みを提案する。
我々は、温度依存の幻覚エネルギーに基づいてCourant-Fischer境界を導出し、RKHS固有モデムを用いて、モダリティを意識した解釈可能な測定値を得る。
論文 参考訳(メタデータ) (2025-08-26T18:54:52Z) - MRFD: Multi-Region Fusion Decoding with Self-Consistency for Mitigating Hallucinations in LVLMs [57.931366749890906]
MRFD (Multi-Region Fusion Decoding) は、領域間の一貫性をモデル化することにより、現実のグラウンド化を改善する訓練自由復号法である。
MRFDは、クロスアテンションを用いて正常な領域を特定し、それぞれの初期応答を生成し、Jensen-Shannon Divergenceに基づいて信頼性ウェイトを算出する。
論文 参考訳(メタデータ) (2025-08-14T01:17:39Z) - Counterfactual Probing for Hallucination Detection and Mitigation in Large Language Models [0.0]
本研究では,大規模言語モデルにおける幻覚の検出と緩和のための新しいアプローチである,対物探索を提案する。
提案手法は, 疑わしいが微妙な事実誤りを含む反事実文を動的に生成し, これらの摂動に対するモデルの感度を評価する。
論文 参考訳(メタデータ) (2025-08-03T17:29:48Z) - ICR Probe: Tracking Hidden State Dynamics for Reliable Hallucination Detection in LLMs [50.18087419133284]
隠れた状態を活用する幻覚検出法は、主に静的および孤立した表現に焦点を当てている。
隠れ状態の更新に対するモジュールの寄与を定量化する新しいメトリック ICR Score を導入する。
本稿では,隠れ状態の層間進化を捉えた幻覚検出手法 ICR Probe を提案する。
論文 参考訳(メタデータ) (2025-07-22T11:44:26Z) - Robust Multimodal Large Language Models Against Modality Conflict [94.12341487880465]
マルチモーダル大言語モデル(MLLM)は、現実のシナリオにおいて幻覚を起こす傾向がある。
我々は、MLLMをジレンマに配置し、幻覚に直接導く異なるモダリティからの入力における固有の矛盾について研究する。
モダリティ衝突による幻覚を緩和する3つの方法が提案されている。
論文 参考訳(メタデータ) (2025-07-09T11:18:38Z) - MIRAGE: Assessing Hallucination in Multimodal Reasoning Chains of MLLM [58.2298313720146]
マルチモーダル幻覚は多源性であり、様々な原因から生じる。
既存のベンチマークでは、知覚誘発幻覚と推論誘発幻覚を適切に区別することができない。
論文 参考訳(メタデータ) (2025-05-30T05:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。