論文の概要: A Graph Signal Processing Framework for Hallucination Detection in Large Language Models
- arxiv url: http://arxiv.org/abs/2510.19117v1
- Date: Tue, 21 Oct 2025 22:35:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.819237
- Title: A Graph Signal Processing Framework for Hallucination Detection in Large Language Models
- Title(参考訳): 大規模言語モデルにおける幻覚検出のためのグラフ信号処理フレームワーク
- Authors: Valentin Noël,
- Abstract要約: 事実記述は低周波収束と一貫した「エネルギー山」の挙動を示すが,幻覚型は異なる特徴を示す。
スペクトルシグネチャを用いた単純な検出器は、パープレキシティベースのベースラインに対して 88.75% の精度を達成する。
これらの結果は、スペクトル幾何学が推論パターンや誤りの振る舞いを捉え、大きな言語モデルで検出するためのフレームワークを提供する可能性があることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models achieve impressive results but distinguishing factual reasoning from hallucinations remains challenging. We propose a spectral analysis framework that models transformer layers as dynamic graphs induced by attention, with token embeddings as signals on these graphs. Through graph signal processing, we define diagnostics including Dirichlet energy, spectral entropy, and high-frequency energy ratios, with theoretical connections to computational stability. Experiments across GPT architectures suggest universal spectral patterns: factual statements exhibit consistent "energy mountain" behavior with low-frequency convergence, while different hallucination types show distinct signatures. Logical contradictions destabilize spectra with large effect sizes ($g>1.0$), semantic errors remain stable but show connectivity drift, and substitution hallucinations display intermediate perturbations. A simple detector using spectral signatures achieves 88.75% accuracy versus 75% for perplexity-based baselines, demonstrating practical utility. These findings indicate that spectral geometry may capture reasoning patterns and error behaviors, potentially offering a framework for hallucination detection in large language models.
- Abstract(参考訳): 大きな言語モデルは印象的な結果を得るが、幻覚と事実的推論を区別することは依然として困難である。
本稿では,これらのグラフ上の信号としてトークンを埋め込み,注意によって誘導される動的グラフとしてトランスフォーマー層をモデル化するスペクトル解析フレームワークを提案する。
グラフ信号処理により、ディリクレエネルギー、スペクトルエントロピー、高周波数エネルギー比などの診断を、理論的に計算安定性に関連づけて定義する。
事実ステートメントは低周波収束と一貫した「エネルギー山」の振る舞いを示し、異なる幻覚型は異なるシグネチャを示す。
論理的矛盾はスペクトルを大きな効果サイズで不安定化し(g>1.0$)、セマンティックエラーは安定だが接続のドリフトを示し、置換幻覚は中間摂動を示す。
スペクトルシグネチャを用いた単純な検出器は、パープレキシティベースのベースラインに対して88.75%の精度を実現し、実用性を実証している。
これらの結果は、スペクトル幾何学が推論パターンや誤りの振る舞いを捉え、大きな言語モデルにおける幻覚検出の枠組みを提供する可能性があることを示唆している。
関連論文リスト
- Training-Free Spectral Fingerprints of Voice Processing in Transformers [0.0]
異なる変換器アーキテクチャが、異なる接続パターンを介して同一の言語計算を実装していることを示す。
注意誘導トークングラフ上でのグラフ信号処理を用いて、20言語と3つのモデルファミリ間の接続性の変化を追跡する。
論文 参考訳(メタデータ) (2025-10-21T23:33:43Z) - Mitigating Multimodal Hallucinations via Gradient-based Self-Reflection [49.26064449816502]
本研究では,テキスト・視覚バイアスと共起バイアスに対処するために,グラディエントベースのインフルエンス・アウェア制約付きデコーディング(GACD)手法を提案する。
GACDは幻覚を効果的に低減し、MLLM出力の視覚的接地を改善する。
論文 参考訳(メタデータ) (2025-09-03T08:13:52Z) - Why and How LLMs Hallucinate: Connecting the Dots with Subsequence Associations [82.42811602081692]
本稿では,幻覚を体系的に追跡・理解するサブシーケンス・アソシエーション・フレームワークを提案する。
主要な洞察は、支配的な幻覚協会が忠実なものを上回るときに生じる幻覚である。
ランダムな入力コンテキストにおける幻覚の確率を解析することにより因果列を同定するトレースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T06:34:45Z) - Hallucination Detection in LLMs with Topological Divergence on Attention Graphs [60.83579255387347]
幻覚(Halucination)、すなわち、事実的に誤ったコンテンツを生成することは、大きな言語モデルにとって重要な課題である。
本稿では,TOHA (Topology-based HAllucination detector) をRAG設定に導入する。
論文 参考訳(メタデータ) (2025-04-14T10:06:27Z) - HoloNets: Spectral Convolutions do extend to Directed Graphs [59.851175771106625]
従来の知恵は、スペクトル畳み込みネットワークは無向グラフ上にしか展開できないと規定している。
ここでは、このグラフフーリエ変換への伝統的な依存が超フルであることを示す。
本稿では,新たに開発されたフィルタの周波数応答解釈を行い,フィルタ表現に使用するベースの影響を調査し,ネットワークを基盤とする特性演算子との相互作用について議論する。
論文 参考訳(メタデータ) (2023-10-03T17:42:09Z) - Gaussian Processes on Graphs via Spectral Kernel Learning [9.260186030255081]
グラフのノード上で定義された信号の予測のためのグラフスペクトルに基づくガウス過程を提案する。
合成実験におけるモデルの解釈可能性を示し、様々な基底真理スペクトルフィルタを精度良く回収できることを示す。
論文 参考訳(メタデータ) (2020-06-12T17:51:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。