論文の概要: Anatomy of a Lie: A Multi-Stage Diagnostic Framework for Tracing Hallucinations in Vision-Language Models
- arxiv url: http://arxiv.org/abs/2603.15557v1
- Date: Mon, 16 Mar 2026 17:20:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.686038
- Title: Anatomy of a Lie: A Multi-Stage Diagnostic Framework for Tracing Hallucinations in Vision-Language Models
- Title(参考訳): ライの解剖:視覚・言語モデルにおける幻覚の追跡のための多段階診断フレームワーク
- Authors: Lexiang Xiong, Qi Li, Jingwen Ye, Xinchao Wang,
- Abstract要約: VLM(Vision-Language Models)は、しばしば「ハロシン化(hallucinate)」する。
本稿では,静的な出力誤差からモデル計算認知の動的病理へ再キャストし,幻覚を診断するための新しいパラダイムを提案する。
- 参考スコア(独自算出の注目度): 62.932580559941414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-Language Models (VLMs) frequently "hallucinate" - generate plausible yet factually incorrect statements - posing a critical barrier to their trustworthy deployment. In this work, we propose a new paradigm for diagnosing hallucinations, recasting them from static output errors into dynamic pathologies of a model's computational cognition. Our framework is grounded in a normative principle of computational rationality, allowing us to model a VLM's generation as a dynamic cognitive trajectory. We design a suite of information-theoretic probes that project this trajectory onto an interpretable, low-dimensional Cognitive State Space. Our central discovery is a governing principle we term the geometric-information duality: a cognitive trajectory's geometric abnormality within this space is fundamentally equivalent to its high information-theoretic surprisal. Hallucination detection is counts as a geometric anomaly detection problem. Evaluated across diverse settings - from rigorous binary QA (POPE) and comprehensive reasoning (MME) to unconstrained open-ended captioning (MS-COCO) - our framework achieves state-of-the-art performance. Crucially, it operates with high efficiency under weak supervision and remains highly robust even when calibration data is heavily contaminated. This approach enables a causal attribution of failures, mapping observable errors to distinct pathological states: perceptual instability (measured by Perceptual Entropy), logical-causal failure (measured by Inferential Conflict), and decisional ambiguity (measured by Decision Entropy). Ultimately, this opens a path toward building AI systems whose reasoning is transparent, auditable, and diagnosable by design.
- Abstract(参考訳): VLM(Vision-Language Models)は、しばしば"幻覚"(hallucinate) - 信頼性のあるデプロイメントにおいて重要な障壁となる、確実で事実的に誤ったステートメントを生成する。
本研究では,静的な出力誤差からモデル計算認知の動的病理へ再キャストし,幻覚を診断するための新しいパラダイムを提案する。
我々の枠組みは計算合理性の規範的原理に基づいており、VLMの生成を動的認知軌道としてモデル化することができる。
我々は、この軌道を解釈可能な低次元認知状態空間に投影する情報理論プローブ群を設計する。
我々の中心的な発見は、幾何学的情報二重性(geoge-information duality)と呼ばれる支配原理である:この空間における認知的軌跡の幾何学的異常は、その高情報理論の仮定と基本的に等価である。
幻覚検出は幾何学的異常検出問題として数えられる。
厳密なバイナリQA (POPE) や包括的推論 (MME) から制約なしのオープンエンドキャプション (MS-COCO) に至るまで, さまざまな状況で評価され, 当社のフレームワークは最先端のパフォーマンスを実現している。
重要なことは、弱い監督下で高い効率で動作し、校正データが重く汚染されている場合でも、非常に堅牢である。
このアプローチは、障害の因果帰属、観測可能なエラーを、知覚的不安定性(知覚的エントロピーによって測定される)、論理的因果的失敗(推論的コンフリクトによって測定される)、決定的曖昧性(決定的エントロピーによって測定される)といった、異なる病理状態にマッピングすることを可能にする。
最終的には、設計によって推論が透明で、監査可能で、診断可能なAIシステムを構築するための道を開くことになる。
関連論文リスト
- PolarMem: A Training-Free Polarized Latent Graph Memory for Verifiable Multimodal Agents [5.350399160165104]
マルチモーダルエージェントは受動的観察者から長距離意思決定者へと進化する。
現在のメモリシステムは負の制約を符号化することができない。
トレーニング不要な偏極グラフメモリであるPolarMemを紹介する。
論文 参考訳(メタデータ) (2026-01-31T00:13:56Z) - Eidoku: A Neuro-Symbolic Verification Gate for LLM Reasoning via Structural Constraint Satisfaction [0.0]
大規模言語モデル(LLM)は、しばしば、モデル自身によって高い確率で割り当てられる幻覚文を生成する。
このことは、幻覚はしばしば低信頼現象ではなく、構造的整合性の失敗であることを示している。
我々は,LLM推論を,生成可能性とは独立に動作する制約満足度問題(CSP)として検証する。
論文 参考訳(メタデータ) (2025-12-19T05:29:43Z) - CAVE: Detecting and Explaining Commonsense Anomalies in Visual Environments [34.26006736991816]
実世界の視覚異常の最初のベンチマークであるCAVEを紹介する。
CAVEは、異常説明、説明、正当化の3つのオープンエンドタスクをサポートしている。
これらのアノテーションは、人間が異常を識別し解決する方法に関する認知科学の研究からインスピレーションを得ている。
論文 参考訳(メタデータ) (2025-10-29T22:34:26Z) - Distributional Semantics Tracing: A Framework for Explaining Hallucinations in Large Language Models [4.946483489399819]
大規模言語モデル(LLM)は、事実的に誤った文を生成する幻覚の傾向にある。
この研究は、3つの主要な貢献を通じて、この障害モードの本質的、アーキテクチャ的起源について調査する。
論文 参考訳(メタデータ) (2025-10-07T16:40:31Z) - Review of Hallucination Understanding in Large Language and Vision Models [65.29139004945712]
本稿では,多様なアプリケーションにまたがる画像とテキストの幻覚を特徴付けるフレームワークを提案する。
我々の調査によると、幻覚はデータ分布や遺伝バイアスの予測可能なパターンから生じることが多い。
この調査は、現実世界の生成AIシステムにおける幻覚に対するより堅牢で効果的なソリューションを開発する基盤を提供する。
論文 参考訳(メタデータ) (2025-09-26T09:23:08Z) - Semantic Energy: Detecting LLM Hallucination Beyond Entropy [106.92072182161712]
大規模言語モデル(LLM)は、現実のアプリケーションにますますデプロイされているが、幻覚の影響を受けやすいままである。
不確実性推定は、そのような幻覚を検出するための実現可能なアプローチである。
本稿では,新しい不確実性推定フレームワークであるセマンティック・エナジーを紹介する。
論文 参考訳(メタデータ) (2025-08-20T07:33:50Z) - Joint Evaluation of Answer and Reasoning Consistency for Hallucination Detection in Large Reasoning Models [12.270274049887298]
トレースの推論は冗長あるいは論理的に矛盾する可能性があるため、新しい幻覚の源となる。
既存の幻覚検出法は主に回答レベルの不確実性に焦点を当てている。
LRMにおける幻覚検出に適した新しいフレームワークであるRASを提案する。
論文 参考訳(メタデータ) (2025-06-05T09:54:04Z) - Causality-Based Multivariate Time Series Anomaly Detection [63.799474860969156]
我々は、因果的観点から異常検出問題を定式化し、多変量データを生成するための通常の因果的メカニズムに従わない事例として、異常を考察する。
次に、まずデータから因果構造を学習し、次に、あるインスタンスが局所因果機構に対して異常であるかどうかを推定する因果検出手法を提案する。
我々は、実世界のAIOpsアプリケーションに関するケーススタディと同様に、シミュレートされたデータセットとパブリックなデータセットの両方を用いて、私たちのアプローチを評価します。
論文 参考訳(メタデータ) (2022-06-30T06:00:13Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。