論文の概要: SymLoc: Symbolic Localization of Hallucination across HaluEval and TruthfulQA
- arxiv url: http://arxiv.org/abs/2511.14172v1
- Date: Tue, 18 Nov 2025 06:16:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.96366
- Title: SymLoc: Symbolic Localization of Hallucination across HaluEval and TruthfulQA
- Title(参考訳): SymLoc: HaluEval と TruthfulQA にまたがる幻覚の象徴的局在
- Authors: Naveen Lamba, Sanju Tiwari, Manas Gaur,
- Abstract要約: LLMは、特に修飾子、否定、数、例外、名前付きエンティティといった象徴的なトリガーに直面している場合、幻覚に苦しむ。
本稿では,すべてのモデル層にまたがる幻覚の発達を有意に追跡する最初の象徴的局在化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.274826797278582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs still struggle with hallucination, especially when confronted with symbolic triggers like modifiers, negation, numbers, exceptions, and named entities. Yet, we lack a clear understanding of where these symbolic hallucinations originate, making it crucial to systematically handle such triggers and localize the emergence of hallucination inside the model. While prior work explored localization using statistical techniques like LSC and activation variance analysis, these methods treat all tokens equally and overlook the role symbolic linguistic knowledge plays in triggering hallucinations. So far, no approach has investigated how symbolic elements specifically drive hallucination failures across model layers, nor has symbolic linguistic knowledge been used as the foundation for a localization framework. We propose the first symbolic localization framework that leverages symbolic linguistic and semantic knowledge to meaningfully trace the development of hallucinations across all model layers. By focusing on how models process symbolic triggers, we analyze five models using HaluEval and TruthfulQA. Our symbolic knowledge approach reveals that attention variance for these linguistic elements explodes to critical instability in early layers (2-4), with negation triggering catastrophic variance levels, demonstrating that symbolic semantic processing breaks down from the very beginning. Through the lens of symbolic linguistic knowledge, despite larger model sizes, hallucination rates remain consistently high (78.3%-83.7% across Gemma variants), with steep attention drops for symbolic semantic triggers throughout deeper layers. Our findings demonstrate that hallucination is fundamentally a symbolic linguistic processing failure, not a general generation problem, revealing that symbolic semantic knowledge provides the key to understanding and localizing hallucination mechanisms in LLMs.
- Abstract(参考訳): LLMは、特に修飾子、否定、数、例外、名前付きエンティティといった象徴的なトリガーに直面している場合、幻覚に苦しむ。
しかし、これらの象徴的な幻覚がどこから生まれたのかを明確に理解していないため、そのようなトリガーを体系的に処理し、モデル内の幻覚の出現をローカライズすることが重要である。
以前の研究では、LSCやアクティベーション分散分析などの統計手法を用いてローカライゼーションを検討したが、これらの手法は全てのトークンを等しく扱い、幻覚を誘発する上で象徴的な言語知識が果たす役割を見落としている。
これまでのところ、記号的要素がモデル層を横断する幻覚的障害をどう引き起こすかは研究されておらず、また、局所化フレームワークの基礎として記号的言語知識が使われていない。
本稿では,すべてのモデル層にまたがる幻覚の発達を有意義に追跡するために,記号的言語的・意味的知識を活用した最初の記号的局所化フレームワークを提案する。
モデルがシンボリックトリガをどのように処理するかに注目して、HaluEvalとTruthfulQAを使って5つのモデルを分析する。
我々のシンボリック・ナレッジ・アプローチは、これらの言語要素の注意分散が初期の層(2-4)で臨界不安定に爆発し、否定が破滅的な分散レベルを引き起こし、シンボリック・セマンティック・プロセッシングが最初から崩壊することを明らかにする。
象徴的な言語知識のレンズを通して、より大きなモデルサイズにもかかわらず、幻覚率は一貫して高く(Gemmaの変種全体で78.3%-83.7%)、より深い層全体にわたって象徴的な意味的引き金に対して急激な注意を払っている。
本研究により, 幻覚は言語処理の障害であり, 一般的な生成問題ではないことが示唆され, 記号的意味知識がLLMの幻覚機構の理解と局所化の鍵となることが明らかとなった。
関連論文リスト
- SHALE: A Scalable Benchmark for Fine-grained Hallucination Evaluation in LVLMs [52.03164192840023]
LVLM(Large Vision-Language Models)は、いまだ幻覚に悩まされている。
本稿では,スケーラブルで制御可能で多様な評価データを生成する自動データ構築パイプラインを提案する。
我々は,忠実度と事実性幻覚の両方を評価するためのベンチマークであるSHALEを構築した。
論文 参考訳(メタデータ) (2025-08-13T07:58:01Z) - When Semantics Mislead Vision: Mitigating Large Multimodal Models Hallucinations in Scene Text Spotting and Understanding [75.57997630182136]
シーンテキスト領域に着目した大規模マルチモーダルモデルにおけるトランスフォーマー層は,意味幻覚を生成する傾向が低い。
本研究では,ZoomText と Grounded Layer Correction の2つの主要コンポーネントからなる学習自由な意味幻覚緩和フレームワークを提案する。
本手法は,意味幻覚を効果的に緩和するだけでなく,シーンテキストのスポッティングや理解のための公開ベンチマークの性能も向上する。
論文 参考訳(メタデータ) (2025-06-05T19:53:19Z) - Simulation of Non-Ordinary Consciousness [0.0]
シロシビン様のシンボル認知をシミュレートするために設計された生成的シンボルインタフェース。
グリフは、高エントロピー、比喩飽和、エゴ溶解言語を一貫して生成する。
論文 参考訳(メタデータ) (2025-03-29T23:04:04Z) - ESREAL: Exploiting Semantic Reconstruction to Mitigate Hallucinations in Vision-Language Models [6.014286500397164]
視覚言語モデルにおける幻覚は、特に長いキャプションの生成において、その信頼性に重大な課題をもたらす。
本研究では,幻覚の正確な局在化と罰則化による幻覚の発生抑制を目的とした,新しい教師なし学習フレームワークであるESREALを紹介する。
LLaVA, InstructBLIP, mPLUG-Owl2の幻覚を32.81%, 27.08%, 7.46%減少させる。
論文 参考訳(メタデータ) (2024-03-24T14:21:06Z) - Logical Closed Loop: Uncovering Object Hallucinations in Large Vision-Language Models [52.957842999317506]
オブジェクト幻覚(Object Hallucination)とは、LVLMが画像に存在しない物体を主張する現象である。
本稿では,物体の幻覚検出と緩和,すなわちLogicCheckGPTのための論理閉ループベースのフレームワークを提案する。
プラグアンドプレイ法として、既存のすべてのLVLMにシームレスに適用することができる。
論文 参考訳(メタデータ) (2024-02-18T15:28:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。