論文の概要: I Know What I Don't Know: Latent Posterior Factor Models for Multi-Evidence Probabilistic Reasoning
- arxiv url: http://arxiv.org/abs/2603.15670v1
- Date: Fri, 13 Mar 2026 10:05:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.867578
- Title: I Know What I Don't Know: Latent Posterior Factor Models for Multi-Evidence Probabilistic Reasoning
- Title(参考訳): 知らないこと:マルチエビデンス確率推論のための潜在後因子モデル
- Authors: Aliyu Agboola Alege,
- Abstract要約: 本稿では,遅延後続因子 (LPF) をSum-Product Network (SPN) 推論のソフトな可能性因子に変換するフレームワークとして紹介する。
LPF を LPF-SPN (structured Factor-based inference) と LPF-Learned (end-to-end learned aggregate) とみなす。
8つのドメイン(7つの合成およびFEVERベンチマーク)で、LPF-SPNは高い精度(最大97.8%)、低い校正誤差(ECE 1.4%)、強い確率適合を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world decision-making, from tax compliance assessment to medical diagnosis, requires aggregating multiple noisy and potentially contradictory evidence sources. Existing approaches either lack explicit uncertainty quantification (neural aggregation methods) or rely on manually engineered discrete predicates (probabilistic logic frameworks), limiting scalability to unstructured data. We introduce Latent Posterior Factors (LPF), a framework that transforms Variational Autoencoder (VAE) latent posteriors into soft likelihood factors for Sum-Product Network (SPN) inference, enabling tractable probabilistic reasoning over unstructured evidence while preserving calibrated uncertainty estimates. We instantiate LPF as LPF-SPN (structured factor-based inference) and LPF-Learned (end-to-end learned aggregation), enabling a principled comparison between explicit probabilistic reasoning and learned aggregation under a shared uncertainty representation. Across eight domains (seven synthetic and the FEVER benchmark), LPF-SPN achieves high accuracy (up to 97.8%), low calibration error (ECE 1.4%), and strong probabilistic fit, substantially outperforming evidential deep learning, LLMs and graph-based baselines over 15 random seeds. Contributions: (1) A framework bridging latent uncertainty representations with structured probabilistic reasoning. (2) Dual architectures enabling controlled comparison of reasoning paradigms. (3) Reproducible training methodology with seed selection. (4) Evaluation against EDL, BERT, R-GCN, and large language model baselines. (5) Cross-domain validation. (6) Formal guarantees in a companion paper.
- Abstract(参考訳): 実際の意思決定は、税のコンプライアンス評価から診断まで、複数のノイズと潜在的に矛盾する証拠ソースを集約する必要がある。
既存のアプローチには明確な不確実性定量化(神経集約法)が欠けているか、手作業による離散述語(確率論理フレームワーク)に依存しており、スケーラビリティを非構造化データに制限している。
本研究では,変分オートエンコーダ (VAE) の後部をSum-Product Network (SPN) 推論のソフトな可能性因子に変換するフレームワークであるLatent Posterior Factors (LPF) を導入し,非構造的証拠に対するトラクタブルな確率的推論を可能にするとともに,キャリブレーションされた不確実性推定を保存する。
我々はLPFをLPF-SPN(構造化因子に基づく推論)とLPF-Learned(エンドツーエンドの学習集約)としてインスタンス化し、明示的な確率的推論と共有不確実性表現に基づく学習集約との原則的比較を可能にする。
8つのドメイン(7つの合成およびFEVERベンチマーク)で、LPF-SPNは高い精度(最大97.8%)、低い校正誤差(ECE 1.4%)、強い確率的適合性、明らかな深層学習、LLMおよび15個のランダムな種子に対するグラフベースのベースラインを著しく上回る。
コントリビューション:(1)構造化確率論的推論による潜在不確実性表現をブリッジするフレームワーク。
2)推論パラダイムの制御比較を可能にするデュアルアーキテクチャ。
(3)種選択による再現可能な訓練方法。
(4)EDL,BERT,R-GCN,および大規模言語モデルベースラインに対する評価
(5)クロスドメイン検証。
(6)共用紙における形式的保証
関連論文リスト
- Trust in One Round: Confidence Estimation for Large Language Models via Structural Signals [13.89434979851652]
大規模言語モデル(LLM)は、エラーが社会的、科学的、安全コストの高い領域にますます展開されている。
本稿では,出力の正確性を予測する単一パスモデル依存フレームワークであるStructure Confidenceを提案する。
論文 参考訳(メタデータ) (2026-02-01T02:35:59Z) - ProbFM: Probabilistic Time Series Foundation Model with Uncertainty Decomposition [0.12489632787815884]
Time Series Foundation Models (TSFMs) はゼロショット財務予測のための有望なアプローチとして登場した。
現在のアプローチでは、制限的な分布仮定に依存したり、異なる不確実性の源を詳述したり、原則化された校正機構が欠如している。
本稿では,Deep Evidential Regression (DER) を利用した変圧器を用いた新しい確率的フレームワーク ProbFM を提案する。
論文 参考訳(メタデータ) (2026-01-15T17:02:06Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。