論文の概要: Grounding the Ungrounded: A Spectral-Graph Framework for Quantifying Hallucinations in multimodal LLMs
- arxiv url: http://arxiv.org/abs/2508.19366v1
- Date: Tue, 26 Aug 2025 18:54:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.401267
- Title: Grounding the Ungrounded: A Spectral-Graph Framework for Quantifying Hallucinations in multimodal LLMs
- Title(参考訳): アングラウンド化:マルチモーダルLLMにおける幻覚の定量化のためのスペクトルグラフフレームワーク
- Authors: Supratik Sarkar, Swagatam Das,
- Abstract要約: 大規模な言語モデルにおける幻覚を定量化するための拡散力学における厳密な情報幾何学的枠組みを初めて紹介する。
我々のフレームワークは、時間をかけて幻覚の進化を捉える、モダリティを意識した理論的に解釈可能なメトリクスを提供する。
この研究は幻覚の定量化と有界化の原理的な基礎を確立し、それらを質的なリスクから、抽出可能な分析可能な現象に変換する。
- 参考スコア(独自算出の注目度): 19.099044165107696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hallucinations in large language models (LLMs) remain a fundamental obstacle to trustworthy AI, particularly in high-stakes multimodal domains such as medicine, law, and finance. Existing evaluation techniques are largely heuristic -- anchored in qualitative benchmarking or ad-hoc empirical mitigation -- providing neither principled quantification nor actionable theoretical guarantees. This gap leaves a critical blind spot in understanding how hallucinations arise, propagate, and interact across modalities. We introduce the first (to our knowledge) rigorous information geometric framework in diffusion dynamics for quantifying hallucinations in multimodal LLMs (MLLMs), advancing the field from qualitative detection to mathematically grounded measurement. Our approach represents MLLM outputs as the spectral embeddings over multimodal graph Laplacians and characterizes the manifold gaps of truth vs inconsistencies as the semantic distortion, enabling the tight Rayleigh--Ritz bounds on the multimodal hallucination energy as a functional of time-dependent temperature profiles. By leveraging eigenmode decompositions in Reproducing Kernel Hilbert Space (RKHS) embeddings, our framework delivers modality-aware, theoretically interpretable metrics that capture the evolution of hallucinations across time and input prompts through temperature annealing. This work establishes a principled foundation for quantifying and bounding hallucinations, transforming them from a qualitative risk to a tractable, analyzable phenomenon.
- Abstract(参考訳): 大規模言語モデル(LLM)における幻覚は、信頼に値するAI、特に医学、法学、金融といった高度なマルチモーダル領域の基本的な障害である。
既存の評価手法は、主にヒューリスティックであり、定性的なベンチマークや準ホックな経験的緩和に固定されている -- 原理的定量化や作用可能な理論的保証を提供していない。このギャップは、幻覚がどのように発生し、伝播し、モダリティを越えて相互作用するかを理解するための重要な盲点を残している。我々は、多モードLLM(MLLM)の幻覚を定量化するための拡散力学における第1の(私たちの知識のために)厳密な情報幾何学的枠組みを導入し、定性的な検出から数学的に基底された測定まで分野を前進させ、数式グラフ上のスペクトル埋め込みとしてMLLMの出力を表現し、セマンティックな表現として真理と矛盾の多様体を特徴付ける。
再生ケルネルヒルベルト空間(RKHS)埋め込みにおける固有モード分解を利用して、時間と入力による幻覚の進化を捉え、温度アニーリングを通じて、理論的に解釈可能な測度を提供する。
この研究は幻覚の定量化と有界化の原理的な基礎を確立し、それらを質的なリスクから、抽出可能な分析可能な現象に変換する。
関連論文リスト
- Semantic Energy: Detecting LLM Hallucination Beyond Entropy [106.92072182161712]
大規模言語モデル(LLM)は、現実のアプリケーションにますますデプロイされているが、幻覚の影響を受けやすいままである。
不確実性推定は、そのような幻覚を検出するための実現可能なアプローチである。
本稿では,新しい不確実性推定フレームワークであるセマンティック・エナジーを紹介する。
論文 参考訳(メタデータ) (2025-08-20T07:33:50Z) - Theoretical Foundations and Mitigation of Hallucination in Large Language Models [0.0]
LLM(英: Hallucination in Large Language Models)とは、入力や実世界の事実に忠実でないコンテンツの生成を指す用語である。
本稿では, LLMにおける幻覚の厳密な処理について述べる。
論文 参考訳(メタデータ) (2025-07-20T15:22:34Z) - MIRAGE: Assessing Hallucination in Multimodal Reasoning Chains of MLLM [58.2298313720146]
マルチモーダル幻覚は多源性であり、様々な原因から生じる。
既存のベンチマークでは、知覚誘発幻覚と推論誘発幻覚を適切に区別することができない。
論文 参考訳(メタデータ) (2025-05-30T05:54:36Z) - Triggering Hallucinations in LLMs: A Quantitative Study of Prompt-Induced Hallucination in Large Language Models [0.0]
大規模言語モデル(LLM)における幻覚は、現実世界のアプリケーションにまたがる課題が増えていることを示している。
幻覚を系統的に引き起こし定量化するプロンプトベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-01T14:33:47Z) - Hallucination Detection in LLMs with Topological Divergence on Attention Graphs [64.74977204942199]
幻覚(Halucination)、すなわち、事実的に誤ったコンテンツを生成することは、大きな言語モデルにとって重要な課題である。
本稿では,TOHA (Topology-based HAllucination detector) をRAG設定に導入する。
論文 参考訳(メタデータ) (2025-04-14T10:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。