論文の概要: Grounding the Ungrounded: A Spectral-Graph Framework for Quantifying Hallucinations in Multimodal LLMs
- arxiv url: http://arxiv.org/abs/2508.19366v3
- Date: Wed, 08 Oct 2025 14:06:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 14:21:18.105338
- Title: Grounding the Ungrounded: A Spectral-Graph Framework for Quantifying Hallucinations in Multimodal LLMs
- Title(参考訳): アングラウンド化:マルチモーダルLLMにおける幻覚の定量化のためのスペクトルグラフフレームワーク
- Authors: Supratik Sarkar, Swagatam Das,
- Abstract要約: MLLMの幻覚を定量化する拡散力学における厳密な情報幾何学的枠組みを提案する。
我々は、温度依存の幻覚エネルギーに基づいてCourant-Fischer境界を導出し、RKHS固有モデムを用いて、モダリティを意識した解釈可能な測定値を得る。
- 参考スコア(独自算出の注目度): 19.099044165107696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hallucinations in LLMs--especially in multimodal settings--undermine reliability. We present a rigorous, information-geometric framework in diffusion dynamics that quantifies hallucination in MLLMs: model outputs are embedded spectrally on multimodal graph Laplacians, and gaps to a truth manifold define a semantic-distortion metric. We derive Courant--Fischer bounds on a temperature-dependent hallucination energy and use RKHS eigenmodes to obtain modality-aware, interpretable measures that track evolution over prompts and time. This reframes hallucination as measurable and bounded, providing a principled basis for evaluation and mitigation.
- Abstract(参考訳): LLMにおける幻覚(特にマルチモーダルな設定)は信頼性を損なう。
MLLMの幻覚を定量化する拡散力学における厳密な情報幾何学的枠組みについて述べる:モデル出力はマルチモーダルグラフラプラシアンにスペクトル的に埋め込まれ、真理多様体へのギャップは意味論的歪曲計量を定義する。
我々は温度依存の幻覚エネルギーに基づいてCourant-Fischer境界を導出し、RKHS固有モデムを用いてモーダリティを意識した解釈可能な測定値を得る。
このことは幻覚を測定可能で有界とみなし、評価と緩和の原則的な基礎を提供する。
関連論文リスト
- Semantic Energy: Detecting LLM Hallucination Beyond Entropy [106.92072182161712]
大規模言語モデル(LLM)は、現実のアプリケーションにますますデプロイされているが、幻覚の影響を受けやすいままである。
不確実性推定は、そのような幻覚を検出するための実現可能なアプローチである。
本稿では,新しい不確実性推定フレームワークであるセマンティック・エナジーを紹介する。
論文 参考訳(メタデータ) (2025-08-20T07:33:50Z) - Theoretical Foundations and Mitigation of Hallucination in Large Language Models [0.0]
LLM(英: Hallucination in Large Language Models)とは、入力や実世界の事実に忠実でないコンテンツの生成を指す用語である。
本稿では, LLMにおける幻覚の厳密な処理について述べる。
論文 参考訳(メタデータ) (2025-07-20T15:22:34Z) - MIRAGE: Assessing Hallucination in Multimodal Reasoning Chains of MLLM [58.2298313720146]
マルチモーダル幻覚は多源性であり、様々な原因から生じる。
既存のベンチマークでは、知覚誘発幻覚と推論誘発幻覚を適切に区別することができない。
論文 参考訳(メタデータ) (2025-05-30T05:54:36Z) - Triggering Hallucinations in LLMs: A Quantitative Study of Prompt-Induced Hallucination in Large Language Models [0.0]
大規模言語モデル(LLM)における幻覚は、現実世界のアプリケーションにまたがる課題が増えていることを示している。
幻覚を系統的に引き起こし定量化するプロンプトベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-01T14:33:47Z) - Hallucination Detection in LLMs with Topological Divergence on Attention Graphs [64.74977204942199]
幻覚(Halucination)、すなわち、事実的に誤ったコンテンツを生成することは、大きな言語モデルにとって重要な課題である。
本稿では,TOHA (Topology-based HAllucination detector) をRAG設定に導入する。
論文 参考訳(メタデータ) (2025-04-14T10:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。