論文の概要: Hallucinations Live in Variance
- arxiv url: http://arxiv.org/abs/2601.07058v1
- Date: Sun, 11 Jan 2026 20:41:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.143584
- Title: Hallucinations Live in Variance
- Title(参考訳): 幻覚は変わらず生きていく
- Authors: Aaron R. Flouro, Shawn P. Chadwick,
- Abstract要約: ベンチマークは、モデルが正しいかどうかを測定する。
幻覚は、意味論的に等価なプロンプトが一貫性のない内部経路を活性化し、発散した出力を生成するときに生じる。
我々はこれを,パラフレーズ一貫性 (PC@k) によって測定されたセマンティック安定性 (SS) で定式化し,kパラフレーズを生成し,それぞれをgreedyデコードし,計算モード合意する。
密度の高いQwen3-0.6Bは23.8%に留まり、32%の間隔で55.9%に上昇する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Benchmarks measure whether a model is correct. They do not measure whether a model is reliable. This distinction is largely academic for single-shot inference, but becomes critical for agentic AI systems, where a single rephrased prompt can trigger cascading failures in multi-step execution. Yet this form of instability is not captured by existing evaluations. Hallucinations live in variance: they arise when semantically equivalent prompts activate inconsistent internal pathways, producing divergent outputs. Consistent but incorrect outputs reflect bias or missing knowledge; confident guessing reflects calibration failure. Neither constitutes hallucination under this definition. When error is variance-dominated, reducing redundant pathways improves reliability without adding knowledge. We formalize this through Semantic Stability (SS), measured via Paraphrase Consistency (PC@k): generate k paraphrases, greedy decode each, compute mode agreement. SS is a diagnostic for variance-driven unreliability, not a method for improving correctness. We show that a dense Qwen3-0.6B agrees with itself only 23.8% of the time; at 32% sparsity, agreement jumps to 55.9%. A phase diagram reveals the sweet spot where variance reduction outpaces bias accumulation, and regimes where stability collapses onto wrong answers.
- Abstract(参考訳): ベンチマークはモデルが正しいかどうかを測定する。
モデルが信頼できるかどうかを計測しません。
この区別は、主に単発推論では学術的だが、エージェントAIシステムでは重要になる。
しかし、この形式の不安定性は既存の評価では捉えられていない。
幻覚は、意味的に等価なプロンプトが一貫性のない内部経路を活性化し、発散した出力を生成するときに生じる。
一貫性はあるが誤った出力はバイアスや知識の欠如を反映し、自信のある推測は校正の失敗を反映する。
この定義の下でも幻覚は成立しない。
エラーが分散に支配されている場合、冗長な経路を減らすことで、知識を追加することなく信頼性が向上する。
我々はこれを,パラフレーズ一貫性 (PC@k) によって測定されたセマンティック安定性 (SS) で定式化し,kパラフレーズを生成し,それぞれをgreedyデコードし,計算モード合意する。
SSは分散駆動型不確実性の診断であり、正確性を改善する方法ではない。
密度の高いQwen3-0.6Bは23.8%に留まり、32%の間隔で55.9%に上昇する。
フェーズ図は、分散の減少がバイアスの蓄積を上回り、安定性が間違った答えに崩壊する状況を示す。
関連論文リスト
- Stochastic CHAOS: Why Deterministic Inference Kills, and Distributional Variability Is the Heartbeat of Artifical Cognition [14.945980804235885]
LLMにとって、決定論的推論は致命的である、と我々は主張する。
不確実性をモデル化し、創発的な能力を抑え、単一の脆い経路に推論を崩壊させ、尾のリスクを隠すことで安全性のアライメントを弱める。
論文 参考訳(メタデータ) (2026-01-12T06:19:09Z) - Decomposing Uncertainty in Probabilistic Knowledge Graph Embeddings: Why Entity Variance Is Not Enough [0.0]
確率的知識グラフの埋め込みは、エンティティを分布として表現し、学習された分散を用いて不確実性を定量化する。
これらの分散は関係に依存しないため、関係文脈に関係なく実体は同一の不確実性を受ける。
関係文脈に依存しないエンティティレベルの統計のみを用いた不確実性推定器は、新しい文脈でほぼランダムなOOD検出を実現する。
論文 参考訳(メタデータ) (2025-12-26T12:38:43Z) - Semantic Energy: Detecting LLM Hallucination Beyond Entropy [106.92072182161712]
大規模言語モデル(LLM)は、現実のアプリケーションにますますデプロイされているが、幻覚の影響を受けやすいままである。
不確実性推定は、そのような幻覚を検出するための実現可能なアプローチである。
本稿では,新しい不確実性推定フレームワークであるセマンティック・エナジーを紹介する。
論文 参考訳(メタデータ) (2025-08-20T07:33:50Z) - Towards Self-Supervised Covariance Estimation in Deep Heteroscedastic Regression [102.24287051757469]
深部異方性回帰における自己教師付き共分散推定について検討する。
正規分布の間の2-ワッサーシュタイン距離の上界を導出する。
幅広い合成データセットと実データセットに対する実験により、提案された2-ワッサーシュタインと擬似ラベルアノテーションが結合した結果、計算的に安価で正確な深部ヘテロ代用回帰が導かれることが示された。
論文 参考訳(メタデータ) (2025-02-14T22:37:11Z) - Uncertainty in Language Models: Assessment through Rank-Calibration [65.10149293133846]
言語モデル(LM)は、自然言語生成において有望な性能を示している。
与えられた入力に応答する際の不確実性を正確に定量化することは重要である。
我々は、LMの確実性と信頼性を評価するために、Rank$-$Calibration$と呼ばれる斬新で実用的なフレームワークを開発する。
論文 参考訳(メタデータ) (2024-04-04T02:31:05Z) - Diagnosing and Rectifying Fake OOD Invariance: A Restructured Causal
Approach [51.012396632595554]
不変表現学習(IRL)は、不変因果的特徴から環境から切り離されたラベルへの予測を促進する。
最近の理論的結果は、IRLによって回復されたいくつかの因果的特徴は、訓練環境ではドメイン不変のふりをするが、目に見えない領域では失敗する。
本研究では,RS-SCMに関する条件付き相互情報に基づく手法を開発し,その効果を巧みに補正する。
論文 参考訳(メタデータ) (2023-12-15T12:58:05Z) - Unified Uncertainty Calibration [43.733911707842005]
不確実性校正(U2C:emphunified uncertainty calibration)は、アレタリックと不確実性を組み合わせた総合的な枠組みである。
U2Cは、不確実性推定のクリーンな学習理論分析を可能にし、さまざまなImageNetベンチマークでリジェクションや分類よりも優れている。
論文 参考訳(メタデータ) (2023-10-02T13:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。