論文の概要: Sequential Gibbs Posteriors with Applications to Principal Component
Analysis
- arxiv url: http://arxiv.org/abs/2310.12882v1
- Date: Thu, 19 Oct 2023 16:36:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 14:16:37.083333
- Title: Sequential Gibbs Posteriors with Applications to Principal Component
Analysis
- Title(参考訳): 逐次ギブス後方法と主成分分析への応用
- Authors: Steven Winter, Omar Melikechi, David B. Dunson
- Abstract要約: ギブス後部は、確率自由ベイズ推論の原理的な枠組みを提供する。
しかし、単一のチューニングパラメータを含む多くの状況では、必然的に不確かさの定量化につながる。
この問題に対処するため,ギブス後方への逐次拡張を提案する。
- 参考スコア(独自算出の注目度): 8.90721241624138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gibbs posteriors are proportional to a prior distribution multiplied by an
exponentiated loss function, with a key tuning parameter weighting information
in the loss relative to the prior and providing a control of posterior
uncertainty. Gibbs posteriors provide a principled framework for
likelihood-free Bayesian inference, but in many situations, including a single
tuning parameter inevitably leads to poor uncertainty quantification. In
particular, regardless of the value of the parameter, credible regions have far
from the nominal frequentist coverage even in large samples. We propose a
sequential extension to Gibbs posteriors to address this problem. We prove the
proposed sequential posterior exhibits concentration and a Bernstein-von Mises
theorem, which holds under easy to verify conditions in Euclidean space and on
manifolds. As a byproduct, we obtain the first Bernstein-von Mises theorem for
traditional likelihood-based Bayesian posteriors on manifolds. All methods are
illustrated with an application to principal component analysis.
- Abstract(参考訳): ギブズ後部は、指数化損失関数によって乗算された先行分布に比例し、前部に対する損失の重み付け情報と後部不確実性の制御を提供するキーチューニングパラメータを有する。
ギブス後部は確率自由ベイズ推論の原理的な枠組みを提供するが、単一のチューニングパラメータを含む多くの状況において、必然的に不確実な定量化につながる。
特に、パラメータの値に関係なく、信頼できる領域は、大きなサンプルであっても、名目上の頻繁なカバレッジとは程遠い。
この問題に対処するためにgibbs後方への逐次拡張を提案する。
提案した逐次後続表現の濃度と、ユークリッド空間および多様体上の条件の検証が容易なベルンシュタイン・ヴォン・ミーゼスの定理を証明した。
副産物として、多様体上の伝統的な帰納法に基づくベイズ後方に対する最初のベルンシュタイン・フォン・ミセスの定理を得る。
すべてのメソッドは、主成分分析へのアプリケーションで示されます。
関連論文リスト
- Reproducible Parameter Inference Using Bagged Posteriors [9.975422461924705]
モデル的不特定性の下では、ベイジアン後部は真あるいは偽真パラメータの不確かさを適切に定量化しないことが多いことが知られている。
独立データセットから構築された2つの信頼集合が空でない重複を持つ確率を考察する。
標準後部からの信頼できる集合は、特に高次元の設定において、この境界に強く違反する可能性があることを示す。
論文 参考訳(メタデータ) (2023-11-03T16:28:16Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Bayesian Renormalization [68.8204255655161]
ベイズ統計的推論にインスパイアされた再正規化に対する完全情報理論的アプローチを提案する。
ベイズ再正規化の主な洞察は、フィッシャー計量が創発的RGスケールの役割を担う相関長を定義することである。
本研究では,ベイズ正規化方式が既存のデータ圧縮法やデータ生成法とどのように関係しているかを考察する。
論文 参考訳(メタデータ) (2023-05-17T18:00:28Z) - A Robustness Analysis of Blind Source Separation [91.3755431537592]
ブラインドソース分離(BSS)は、変換$f$が可逆であるが未知であるという条件の下で、その混合である$X=f(S)$から観測されていない信号を復元することを目的としている。
このような違反を分析し、その影響を$X$から$S$のブラインドリカバリに与える影響を定量化するための一般的なフレームワークを提案する。
定義された構造的仮定からの偏差に対する一般的なBSS溶出は、明示的な連続性保証という形で、利益的に分析可能であることを示す。
論文 参考訳(メタデータ) (2023-03-17T16:30:51Z) - Semiparametric inference using fractional posteriors [3.9599054392856483]
半パラメトリックな不確実性定量化を行うことができるが,その大きさは膨大であることを示す。
さらに、正則性条件下で最適なサイズを持つ効率的な信頼度セットであるイシフテッド・アンド・リスケールされた分数化後続集合を提案する。
論文 参考訳(メタデータ) (2023-01-19T16:23:36Z) - Posterior samples of source galaxies in strong gravitational lenses with
score-based priors [107.52670032376555]
我々はスコアベースモデルを用いて、背景銀河の歪みのない画像の事前推定を符号化する。
アウト・オブ・ディストリビューション・データを用いた実験において、可能性と事前のバランスが、我々の期待にどのように合致しているかを示す。
論文 参考訳(メタデータ) (2022-11-07T19:00:42Z) - Large deviations rates for stochastic gradient descent with strongly
convex functions [11.247580943940916]
勾配降下を伴う一般高確率境界の研究のための公式な枠組みを提供する。
強い凸関数を持つSGDの上限となる大きな偏差が見つかる。
論文 参考訳(メタデータ) (2022-11-02T09:15:26Z) - Robust Generalised Bayesian Inference for Intractable Likelihoods [9.77823546576708]
スタインの不一致を損失関数として一般化ベイズ推論を考える。
これは、確率が難解な正規化定数を含む応用によって動機づけられる。
後肢の整合性, 正規性, 偏在性を示し, これらの特性がスタインの相違の選択によってどのように影響するかを明らかにする。
論文 参考訳(メタデータ) (2021-04-15T10:31:22Z) - Efficiently Sampling Functions from Gaussian Process Posteriors [76.94808614373609]
高速後部サンプリングのための簡易かつ汎用的なアプローチを提案する。
分離されたサンプルパスがガウス過程の後部を通常のコストのごく一部で正確に表現する方法を実証する。
論文 参考訳(メタデータ) (2020-02-21T14:03:16Z) - A deep-learning based Bayesian approach to seismic imaging and
uncertainty quantification [0.4588028371034407]
不確実性は、不条件の逆問題を扱う際に必須である。
未知の知識を正確に符号化する事前分布を定式化することは、しばしば不可能である。
本稿では,無作為な畳み込みニューラルネットワークの機能形式を,前もって暗黙的な構造として利用することを提案する。
論文 参考訳(メタデータ) (2020-01-13T23:46:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。