論文の概要: Theoretical Foundations of Latent Posterior Factors: Formal Guarantees for Multi-Evidence Reasoning
- arxiv url: http://arxiv.org/abs/2603.15674v1
- Date: Fri, 13 Mar 2026 17:44:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.87068
- Title: Theoretical Foundations of Latent Posterior Factors: Formal Guarantees for Multi-Evidence Reasoning
- Title(参考訳): 遅延後因子の理論的基礎:マルチエビデンス推論のための形式的保証
- Authors: Aliyu Agboola Alege,
- Abstract要約: Latent Posterior Factors (LPF) は確率的予測タスクにおいて複数の異種証拠を集約するための原則的枠組みである。
LPFは各エビデンス項目を変分オートエンコーダを介してガウス潜在後部へエンコードし、後部をモンテカルロを経由してソフトファクタに変換し、正確なSum-Product Network Inference (LPF-PN) を介して集約する。
すべてのアグリゲータは、最大4,200のトレーニング例にまたがるデータセットに対して、経験的に検証されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a complete theoretical characterization of Latent Posterior Factors (LPF), a principled framework for aggregating multiple heterogeneous evidence items in probabilistic prediction tasks. Multi-evidence reasoning arises pervasively in high-stakes domains including healthcare diagnosis, financial risk assessment, legal case analysis, and regulatory compliance, yet existing approaches either lack formal guarantees or fail to handle multi-evidence scenarios architecturally. LPF encodes each evidence item into a Gaussian latent posterior via a variational autoencoder, converting posteriors to soft factors through Monte Carlo marginalization, and aggregating factors via exact Sum-Product Network inference (LPF-SPN) or a learned neural aggregator (LPF-Learned). We prove seven formal guarantees spanning the key desiderata for trustworthy AI: Calibration Preservation (ECE <= epsilon + C/sqrt(K_eff)); Monte Carlo Error decaying as O(1/sqrt(M)); a non-vacuous PAC-Bayes bound with train-test gap of 0.0085 at N=4200; operation within 1.12x of the information-theoretic lower bound; graceful degradation as O(epsilon*delta*sqrt(K)) under corruption, maintaining 88% performance with half of evidence adversarially replaced; O(1/sqrt(K)) calibration decay with R^2=0.849; and exact epistemic-aleatoric uncertainty decomposition with error below 0.002%. All theorems are empirically validated on controlled datasets spanning up to 4,200 training examples. Our theoretical framework establishes LPF as a foundation for trustworthy multi-evidence AI in safety-critical applications.
- Abstract(参考訳): 本稿では、確率論的予測タスクにおいて、複数の異種証拠を集約するための原則的枠組みである潜在後因子(LPF)の完全な理論的特徴について述べる。
マルチエビデンス推論は、医療診断、金融リスクアセスメント、法的ケース分析、規制コンプライアンスを含む高度な領域に広範に現れるが、既存のアプローチには正式な保証がないか、複数のエビデンスシナリオをアーキテクチャ的に処理できないかのいずれかがある。
LPFは、各エビデンスアイテムを変分オートエンコーダを介してガウスの潜伏後部にエンコードし、モンテカルロの辺縁化を通じて後部をソフトファクタに変換し、正確なSum-Product Network Inference(LPF-SPN)または学習された神経集合体(LPF-Learned)を介して因子を集約する。
キャリブレーション保存(ECE <= epsilon + C/sqrt(K_eff))、モンテカルロ誤差をO(1/sqrt(M))、N=4200で0.0085の列車テストギャップを持つ非空きPAC-Bayes、情報理論の下限の1.12倍の操作、O(epsilon*delta*sqrt(K)の優雅な劣化、証拠の半分を逆向きに置き換えた88%のパフォーマンス維持、R^20.849のキャリブレーション、R^20.849の正確なエピステマチエータ分解、0.002%以下の分解の精度。
全ての定理は、最大4,200のトレーニング例にまたがる制御されたデータセットで実証的に検証される。
我々の理論的枠組みは、安全クリティカルなアプリケーションにおける信頼性の高いマルチエビデンスAIの基礎としてLPFを確立している。
関連論文リスト
- I Know What I Don't Know: Latent Posterior Factor Models for Multi-Evidence Probabilistic Reasoning [0.0]
本稿では,遅延後続因子 (LPF) をSum-Product Network (SPN) 推論のソフトな可能性因子に変換するフレームワークとして紹介する。
LPF を LPF-SPN (structured Factor-based inference) と LPF-Learned (end-to-end learned aggregate) とみなす。
8つのドメイン(7つの合成およびFEVERベンチマーク)で、LPF-SPNは高い精度(最大97.8%)、低い校正誤差(ECE 1.4%)、強い確率適合を達成する。
論文 参考訳(メタデータ) (2026-03-13T10:05:14Z) - Information Fidelity in Tool-Using LLM Agents: A Martingale Analysis of the Model Context Protocol [69.11739400975445]
モデルコンテキストプロトコル(MCP)エージェントにおけるエラー蓄積を解析するための最初の理論的枠組みを紹介する。
累積歪みが線形成長と高確率偏差を$O(sqrtT)$で表すことを示す。
主な発見は、意味重み付けは歪みを80%減らし、周期的再接地は、エラー制御の約9ステップごとに十分である。
論文 参考訳(メタデータ) (2026-02-10T21:08:53Z) - Geometric Calibration and Neutral Zones for Uncertainty-Aware Multi-Class Classification [0.0]
この研究は情報幾何学と統計的学習を橋渡しし、厳密な検証を必要とするアプリケーションにおいて不確実性を認識した分類の正式な保証を提供する。
アデノ関連ウイルスの分類に関する実証的な検証は、2段階のフレームワークが72.5%のエラーをキャプチャし、34.5%のサンプルを遅延させ、自動決定エラー率を16.8%から6.9%に下げていることを示している。
論文 参考訳(メタデータ) (2025-11-26T01:29:49Z) - COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z) - Data-Driven Calibration of Prediction Sets in Large Vision-Language Models Based on Inductive Conformal Prediction [0.0]
動的しきい値キャリブレーションとクロスモーダル整合性検証を統合したモデル非依存不確実性定量化法を提案する。
このフレームワークは、様々なキャリブレーションとテストの分割比で安定したパフォーマンスを実現し、医療、自律システム、その他の安全に敏感な領域における現実的な展開の堅牢性を強調している。
この研究は、マルチモーダルAIシステムにおける理論的信頼性と実用性の間のギャップを埋め、幻覚検出と不確実性を考慮した意思決定のためのスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2025-04-24T15:39:46Z) - Bridging Internal Probability and Self-Consistency for Effective and Efficient LLM Reasoning [53.25336975467293]
パープレキシティや自己整合性などの手法の第一理論誤差分解解析について述べる。
パープレキシティ法は、適切な整合関数が存在しないため、かなりのモデル誤差に悩まされる。
本稿では、自己整合性とパープレキシティを統合したReasoning-Pruning Perplexity Consistency(RPC)と、低確率推論経路を排除したReasoning Pruningを提案する。
論文 参考訳(メタデータ) (2025-02-01T18:09:49Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。