論文の概要: Maxitive Donsker-Varadhan Formulation for Possibilistic Variational Inference
- arxiv url: http://arxiv.org/abs/2511.21223v1
- Date: Wed, 26 Nov 2025 09:53:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.047956
- Title: Maxitive Donsker-Varadhan Formulation for Possibilistic Variational Inference
- Title(参考訳): 確率的変分推論のための最大ドンスカー・バラダン定式化
- Authors: Jasraj Singh, Shelvia Wongso, Jeremie Houssineau, Badr-Eddine Chérief-Abdellatif,
- Abstract要約: 我々は確率的変分推論の原理的定式化を開発する。
これを指数関数の特殊クラスに適用すると、確率論的関数と平行点が強調される。
- 参考スコア(独自算出の注目度): 5.621958475334369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational inference (VI) is a cornerstone of modern Bayesian learning, enabling approximate inference in complex models that would otherwise be intractable. However, its formulation depends on expectations and divergences defined through high-dimensional integrals, often rendering analytical treatment impossible and necessitating heavy reliance on approximate learning and inference techniques. Possibility theory, an imprecise probability framework, allows to directly model epistemic uncertainty instead of leveraging subjective probabilities. While this framework provides robustness and interpretability under sparse or imprecise information, adapting VI to the possibilistic setting requires rethinking core concepts such as entropy and divergence, which presuppose additivity. In this work, we develop a principled formulation of possibilistic variational inference and apply it to a special class of exponential-family functions, highlighting parallels with their probabilistic counterparts and revealing the distinctive mathematical structures of possibility theory.
- Abstract(参考訳): 変分推論(VI)は現代のベイズ学習の基盤であり、そうでなければ難解な複雑なモデルにおける近似推論を可能にする。
しかし、その定式化は高次元積分によって定義される期待と発散に依存し、しばしば分析的処理は不可能であり、近似学習と推論技術に大きく依存する必要がある。
不正確な確率の枠組みである可能性理論は、主観的確率を活用するのではなく、直接的にてんかんの不確実性をモデル化することができる。
この枠組みはスパース情報や不正確な情報の下で頑健さと解釈性を提供するが、VIを確率的設定に適用するにはエントロピーや発散といった中核的な概念を再考する必要がある。
本研究では、確率的変分推論の原理的な定式化を開発し、指数関数の特殊クラスに適用し、確率論的関数との並列性を強調し、可能性理論の特異な数学的構造を明らかにする。
関連論文リスト
- Bridging the Gap Between Bayesian Deep Learning and Ensemble Weather Forecasts [100.26854618129039]
天気予報は、大気のカオス的な性質によって根本的に挑戦されている。
ベイジアンディープラーニング(BDL)の最近の進歩は、有望だがしばしば非接続な代替手段を提供する。
気象予報のための統合型BDLフレームワークにより,これらのパラダイムを橋渡しする。
論文 参考訳(メタデータ) (2025-11-18T07:49:52Z) - Function-coherent gambles [0.0]
本稿では,非線形効用に対応する一般化である関数コヒーレントギャンブルを提案する。
連続線型汎函数を通した許容ギャンブルを特徴づける表現定理を証明する。
関数コヒーレントフレームワークに定レート指数割引の代替手段を組み込むことを実証する。
論文 参考訳(メタデータ) (2025-02-22T14:44:54Z) - Model-agnostic variable importance for predictive uncertainty: an entropy-based approach [1.912429179274357]
既存の説明可能性の手法が不確実性を考慮したモデルにどのように拡張できるかを示す。
我々は、不確実性の原因とモデル性能への影響の両方を理解するために、これらのアプローチの有用性を実証する。
論文 参考訳(メタデータ) (2023-10-19T15:51:23Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Probabilistic computation and uncertainty quantification with emerging
covariance [11.79594512851008]
堅牢で解釈可能なセキュアなAIシステムを構築するには、確率論的視点の下で不確実性を定量化し、表現する必要がある。
確率計算は、ほとんどの従来の人工ニューラルネットワークにとって重要な課題である。
論文 参考訳(メタデータ) (2023-05-30T17:55:29Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Modal Uncertainty Estimation via Discrete Latent Representation [4.246061945756033]
本稿では,インプットとアウトプットの1対1マッピングを,忠実な不確実性対策とともに学習するディープラーニングフレームワークを提案する。
我々のフレームワークは、現在の最先端手法よりもはるかに正確な不確実性推定を実証している。
論文 参考訳(メタデータ) (2020-07-25T05:29:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。