論文の概要: TDGNet: Hallucination Detection in Diffusion Language Models via Temporal Dynamic Graphs
- arxiv url: http://arxiv.org/abs/2602.08048v1
- Date: Sun, 08 Feb 2026 16:35:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.951844
- Title: TDGNet: Hallucination Detection in Diffusion Language Models via Temporal Dynamic Graphs
- Title(参考訳): TDGNet:時間動的グラフを用いた拡散言語モデルの幻覚検出
- Authors: Arshia Hemmat, Philip Torr, Yongqiang Chen, Junchi Yu,
- Abstract要約: 拡散言語モデル (D-LLMs) は並列化と双方向のコンテキストを提供する。
D-LLMsの幻覚検出は未発見のままである。
本稿では,トークンレベルの注目グラフを進化させる学習として幻覚検出を定式化する時間動的グラフフレームワークであるTDGNetを紹介する。
- 参考スコア(独自算出の注目度): 30.313604786976715
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion language models (D-LLMs) offer parallel denoising and bidirectional context, but hallucination detection for D-LLMs remains underexplored. Prior detectors developed for auto-regressive LLMs typically rely on single-pass cues and do not directly transfer to diffusion generation, where factuality evidence is distributed across the denoising trajectory and may appear, drift, or be self-corrected over time. We introduce TDGNet, a temporal dynamic graph framework that formulates hallucination detection as learning over evolving token-level attention graphs. At each denoising step, we sparsify the attention graph and update per-token memories via message passing, then apply temporal attention to aggregate trajectory-wide evidence for final prediction. Experiments on LLaDA-8B and Dream-7B across QA benchmarks show consistent AUROC improvements over output-based, latent-based, and static-graph baselines, with single-pass inference and modest overhead. These results highlight the importance of temporal reasoning on attention graphs for robust hallucination detection in diffusion language models.
- Abstract(参考訳): 拡散言語モデル (D-LLMs) は並列な認知と双方向のコンテキストを提供するが、D-LLMsの幻覚検出は未解明のままである。
自己回帰型LDMのために開発された以前の検出器は、通常はシングルパスキューに依存しており、拡散生成に直接移行しない。
本稿では,トークンレベルの注目グラフを進化させる学習として幻覚検出を定式化する時間動的グラフフレームワークであるTDGNetを紹介する。
各聴覚ステップにおいて、注意グラフをスペーシングし、メッセージパッシングを介してトーケン毎の記憶を更新し、最終的な予測のための総合的な軌跡証拠に時間的注意を適用する。
QAベンチマークにおけるLLaDA-8BとDream-7Bの実験では、単一パス推論とモデムオーバーヘッドにより、出力ベース、潜在ベース、静的グラフベースラインよりも一貫したAUROCの改善が示されている。
これらの結果は,拡散言語モデルにおける頑健な幻覚検出のための注意グラフにおける時間的推論の重要性を強調した。
関連論文リスト
- Sequence Diffusion Model for Temporal Link Prediction in Continuous-Time Dynamic Graph [5.83093727437226]
既存の時間グラフニューラルネットワークは、主に歴史的相互作用の学習表現に焦点を当てている。
本稿では,動的グラフ学習を生成的認知と統合する,新しいシーケンスレベルの拡散フレームワークを提案する。
我々は,時間的リンク予測タスクにおいて,このフレームワークが常に最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2026-01-30T18:02:12Z) - Hallucination Begins Where Saliency Drops [18.189047289404325]
幻覚は、前の出力トークンが次のトークンの予測に対して低い正当性を示すときにしばしば起こる。
LVLMs-Saliencyは,各出力トークンの視覚的グラウンドリング強度を定量化する,勾配認識型診断フレームワークである。
本手法は, 流速とタスク性能を保ちながら幻覚率を大幅に低減し, 堅牢かつ解釈可能なソリューションを提供する。
論文 参考訳(メタデータ) (2026-01-28T05:50:52Z) - TAG:Tangential Amplifying Guidance for Hallucination-Resistant Diffusion Sampling [53.61290359948953]
タンジェンシャル増幅誘導(TAG)は、下層の拡散モデルを変更することなく、軌道信号のみで動作する。
この誘導過程を1次テイラー展開を利用して定式化する。
TAGは、最小限の計算加算で拡散サンプリング忠実度を改善する、プラグアンドプレイのアーキテクチャに依存しないモジュールである。
論文 参考訳(メタデータ) (2025-10-06T06:53:29Z) - TraceDet: Hallucination Detection from the Decoding Trace of Diffusion Large Language Models [49.83690850047884]
D-LLMの幻覚問題は未解決のままであり、現実世界のアプリケーションでは信頼性が制限されている。
既存の幻覚検出法はAR-LLM向けに設計されており、単一ステップ生成からの信号に依存している。
本稿では,幻覚検出のためのD-LLMの中間段階を明示的に活用する新しいフレームワークであるTraceDetを提案する。
論文 参考訳(メタデータ) (2025-09-30T02:01:10Z) - Neural Message-Passing on Attention Graphs for Hallucination Detection [32.29963721910821]
CHARMは、グラフ学習タスクとして幻覚検出をキャストし、上記の属性グラフにGNNを適用することでそれに取り組む。
我々は、CHARMが事前の注意に基づくトレースを確実に仮定し、実験的に、様々なベンチマークで他のアプローチを一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2025-09-29T13:37:12Z) - EigenTrack: Spectral Activation Feature Tracking for Hallucination and Out-of-Distribution Detection in LLMs and VLMs [8.616813040714883]
EigenTrackは大規模言語モデル(LLM)のための解釈可能なリアルタイム検出器である
表面誤差が現れる前に幻覚とOODドリフトを信号する表現構造における時間的シフトを追跡する。
既存のホワイトボックス検出器とは異なり、時間的コンテキストを保存し、グローバルシグナルを集約し、解釈可能な精度-遅延トレードオフを提供する。
論文 参考訳(メタデータ) (2025-09-19T08:05:28Z) - Multimodal LLM-Guided Semantic Correction in Text-to-Image Diffusion [52.315729095824906]
MLLM Semantic-Corrected Ping-Pong-Ahead Diffusion (PPAD) は,マルチモーダル大言語モデル(MLLM)を推論中の意味的オブザーバとして導入する新しいフレームワークである。
中間世代をリアルタイムに分析し、潜在意味的不整合を識別し、フィードバックを制御可能な信号に変換し、残りの認知ステップを積極的に導く。
大規模な実験ではPPADの大幅な改善が示されている。
論文 参考訳(メタデータ) (2025-05-26T14:42:35Z) - Detecting Anomalies in Dynamic Graphs via Memory enhanced Normality [39.476378833827184]
動的グラフにおける異常検出は、グラフ構造と属性の時間的進化によって大きな課題となる。
時空間記憶強調グラフオートエンコーダ(STRIPE)について紹介する。
STRIPEは、AUCスコアが5.8%改善し、トレーニング時間が4.62倍速く、既存の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-03-14T02:26:10Z) - Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。