論文の概要: Parametrization invariant interpretation of priors and posteriors
- arxiv url: http://arxiv.org/abs/2105.08304v1
- Date: Tue, 18 May 2021 06:45:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 14:16:59.192318
- Title: Parametrization invariant interpretation of priors and posteriors
- Title(参考訳): 事前と後方のパラメトリゼーション不変な解釈
- Authors: Jesus Cerquides
- Abstract要約: 我々は,「事前分布がモデルのパラメータ上で確率分布を確立する」という考え方から,「事前分布が確率分布を超えた確率分布を確立する」という考え方に移行した。
この考え方の下では、確率分布上の任意の分布は「内在的」であり、つまり多様体に選択される特定のパラメトリゼーションに不変である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we leverage on probability over Riemannian manifolds to rethink
the interpretation of priors and posteriors in Bayesian inference. The main
mindshift is to move away from the idea that "a prior distribution establishes
a probability distribution over the parameters of our model" to the idea that
"a prior distribution establishes a probability distribution over probability
distributions". To do that we assume that our probabilistic model is a
Riemannian manifold with the Fisher metric. Under this mindset, any
distribution over probability distributions should be "intrinsic", that is,
invariant to the specific parametrization which is selected for the manifold.
We exemplify our ideas through a simple analysis of distributions over the
manifold of Bernoulli distributions.
One of the major shortcomings of maximum a posteriori estimates is that they
depend on the parametrization. Based on the understanding developed here, we
can define the maximum a posteriori estimate which is independent of the
parametrization.
- Abstract(参考訳): 本稿では、リーマン多様体上の確率を利用して、ベイズ予想における事前および後続の解釈を再考する。
主マインドシフトは、「事前分布が我々のモデルのパラメータ上で確率分布を確立する」という考えから「事前分布が確率分布を超えた確率分布を確立する」という考えに移行することである。
そのため、我々の確率モデルがフィッシャー計量を持つリーマン多様体であると仮定する。
この考え方の下では、確率分布上の任意の分布は「内在的」であり、つまり多様体に選択される特定のパラメトリゼーションに不変である。
我々はベルヌーイ分布の多様体上の分布の単純な解析を通じてアイデアを例示する。
最大アフター推定の最大の欠点の1つは、それらはパラメトリゼーションに依存することである。
ここで開発された理解に基づき、パラメトリゼーションとは独立な最大アフター推定を定義することができる。
関連論文リスト
- Differentiable Annealed Importance Sampling Minimizes The Symmetrized Kullback-Leibler Divergence Between Initial and Target Distribution [10.067421338825545]
DAIS は初期分布と目標分布の対称性を持つ Kullback-Leibler の分散を最小化することを示す。
DAISは、その初期分布が難解なターゲット分布に適合するパラメトリックであるため、変分推論(VI)の形式と見なすことができる。
論文 参考訳(メタデータ) (2024-05-23T17:55:09Z) - Variational Prediction [95.00085314353436]
本稿では,変動境界を用いた後部予測分布に対する変動近似の学習手法を提案する。
このアプローチは、テスト時間の限界化コストを伴わずに、優れた予測分布を提供することができる。
論文 参考訳(メタデータ) (2023-07-14T18:19:31Z) - Wrapped Distributions on homogeneous Riemannian manifolds [58.720142291102135]
パラメータ、対称性、モダリティなどの分布の性質の制御は、フレキシブルな分布の族を生み出す。
変動型オートエンコーダと潜在空間ネットワークモデル内で提案した分布を利用して,我々のアプローチを実証的に検証する。
論文 参考訳(メタデータ) (2022-04-20T21:25:21Z) - Personalized Trajectory Prediction via Distribution Discrimination [78.69458579657189]
トラリミー予測は将来の力学のマルチモーダルな性質を捉えるジレンマと対立する。
本研究では,パーソナライズされた動作パターンを予測するDisDisDis(Disdis)手法を提案する。
本手法は,プラグイン・アンド・プレイモジュールとして既存のマルチモーダル予測モデルと統合することができる。
論文 参考訳(メタデータ) (2021-07-29T17:42:12Z) - Variational Refinement for Importance Sampling Using the Forward
Kullback-Leibler Divergence [77.06203118175335]
変分推論(VI)はベイズ推論における正確なサンプリングの代替として人気がある。
重要度サンプリング(IS)は、ベイズ近似推論手順の推定を微調整し、偏りを逸脱するためにしばしば用いられる。
近似ベイズ推論のための最適化手法とサンプリング手法の新たな組み合わせを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:00:24Z) - Convergence Rates of Empirical Bayes Posterior Distributions: A
Variational Perspective [20.51199643121034]
非パラメトリックおよび高次元推論のための経験的ベイズ後部分布の収束率について検討した。
その結果,最大辺縁度推定器によって誘導される経験的ベイズ後部分布は,階層的ベイズ後部分布の変動近似とみなすことができることがわかった。
論文 参考訳(メタデータ) (2020-09-08T19:35:27Z) - Kullback-Leibler divergence between quantum distributions, and its
upper-bound [1.2183405753834562]
この研究は、量子分布(QD)と呼ばれる確率分布のクラスに対して、KL(Kullback-Leibler)の発散が到達できる上限値を示す。
ここでは、エントロピーの発散に対する上界の取り出しは、比較分布が同じ量子値上の量子分布であるという条件の下で可能であることが示される。
論文 参考訳(メタデータ) (2020-08-13T14:42:13Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z) - Distributionally Robust Bayesian Quadrature Optimization [60.383252534861136]
確率分布が未知な分布の不確実性の下でBQOについて検討する。
標準的なBQOアプローチは、固定されたサンプル集合が与えられたときの真の期待目標のモンテカルロ推定を最大化する。
この目的のために,新しい後方サンプリングに基づくアルゴリズム,すなわち分布的に堅牢なBQO(DRBQO)を提案する。
論文 参考訳(メタデータ) (2020-01-19T12:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。