論文の概要: Posterior concentration and fast convergence rates for generalized
Bayesian learning
- arxiv url: http://arxiv.org/abs/2111.10243v1
- Date: Fri, 19 Nov 2021 14:25:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 16:32:23.838312
- Title: Posterior concentration and fast convergence rates for generalized
Bayesian learning
- Title(参考訳): 一般ベイズ学習における後部濃度と高速収束率
- Authors: Lam Si Tung Ho, Binh T. Nguyen, Vu Dinh, Duy Nguyen
- Abstract要約: 一般化ベイズ推定器の一般環境での学習率について検討する。
マルチスケールのベルンシュタインの条件の下では、一般化された後続分布は最適仮説の集合の周りに集中することが証明される。
- 参考スコア(独自算出の注目度): 4.186575888568896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the learning rate of generalized Bayes estimators in
a general setting where the hypothesis class can be uncountable and have an
irregular shape, the loss function can have heavy tails, and the optimal
hypothesis may not be unique. We prove that under the multi-scale Bernstein's
condition, the generalized posterior distribution concentrates around the set
of optimal hypotheses and the generalized Bayes estimator can achieve fast
learning rate. Our results are applied to show that the standard Bayesian
linear regression is robust to heavy-tailed distributions.
- Abstract(参考訳): 本稿では,一般化ベイズ推定器の学習率について,仮説クラスが非対称で不規則な形状であり,損失関数が重く,最適仮説が一意ではないような一般的な設定で検討する。
マルチスケールベルンシュタイン条件下では、一般化後分布は最適仮説の集合を中心に集中しており、一般化ベイズ推定器は高速な学習率を達成することができる。
この結果から,標準ベイズ線形回帰が重み付き分布に対して頑健であることを示す。
関連論文リスト
- Predictive variational inference: Learn the predictively optimal posterior distribution [1.7648680700685022]
バニラ変量推論はベイズ後部分布に最適な近似を求めるが、正確なベイズ後部分布でさえモデル的不特定の下では意味がないことが多い。
本稿では,最適後続密度から標本を探索する一般推論フレームワークである予測変分推論(PVI)を提案する。
この枠組みは、可能性エクササイズモデルと可能性フリーモデルの両方に適用できる。
論文 参考訳(メタデータ) (2024-10-18T19:44:57Z) - Generalizing to any diverse distribution: uniformity, gentle finetuning and rebalancing [55.791818510796645]
我々は,訓練データから大きく逸脱した場合でも,様々なテスト分布によく適応するモデルを開発することを目的としている。
ドメイン適応、ドメイン一般化、ロバスト最適化といった様々なアプローチは、アウト・オブ・ディストリビューションの課題に対処しようと試みている。
我々は、既知のドメイン内の十分に多様なテスト分布にまたがる最悪のケースエラーを考慮することで、より保守的な視点を採用する。
論文 参考訳(メタデータ) (2024-10-08T12:26:48Z) - Generalized Laplace Approximation [23.185126261153236]
我々は、ベイズ的不整合を不特定性をモデル化し、不適切な先行をモデル化するために、統一された理論的枠組みを導入する。
正規化損失関数のヘッセン行列に対する簡単な調整を含む一般化ラプラス近似を提案する。
我々は、最先端のニューラルネットワークと実世界のデータセット上での一般化されたLaplace近似の性能と特性を評価する。
論文 参考訳(メタデータ) (2024-05-22T11:11:42Z) - Bayesian Renormalization [68.8204255655161]
ベイズ統計的推論にインスパイアされた再正規化に対する完全情報理論的アプローチを提案する。
ベイズ再正規化の主な洞察は、フィッシャー計量が創発的RGスケールの役割を担う相関長を定義することである。
本研究では,ベイズ正規化方式が既存のデータ圧縮法やデータ生成法とどのように関係しているかを考察する。
論文 参考訳(メタデータ) (2023-05-17T18:00:28Z) - Variational Refinement for Importance Sampling Using the Forward
Kullback-Leibler Divergence [77.06203118175335]
変分推論(VI)はベイズ推論における正確なサンプリングの代替として人気がある。
重要度サンプリング(IS)は、ベイズ近似推論手順の推定を微調整し、偏りを逸脱するためにしばしば用いられる。
近似ベイズ推論のための最適化手法とサンプリング手法の新たな組み合わせを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:00:24Z) - Robust Generalised Bayesian Inference for Intractable Likelihoods [9.77823546576708]
スタインの不一致を損失関数として一般化ベイズ推論を考える。
これは、確率が難解な正規化定数を含む応用によって動機づけられる。
後肢の整合性, 正規性, 偏在性を示し, これらの特性がスタインの相違の選択によってどのように影響するかを明らかにする。
論文 参考訳(メタデータ) (2021-04-15T10:31:22Z) - Convergence Rates of Empirical Bayes Posterior Distributions: A
Variational Perspective [20.51199643121034]
非パラメトリックおよび高次元推論のための経験的ベイズ後部分布の収束率について検討した。
その結果,最大辺縁度推定器によって誘導される経験的ベイズ後部分布は,階層的ベイズ後部分布の変動近似とみなすことができることがわかった。
論文 参考訳(メタデータ) (2020-09-08T19:35:27Z) - Efficiently Sampling Functions from Gaussian Process Posteriors [76.94808614373609]
高速後部サンプリングのための簡易かつ汎用的なアプローチを提案する。
分離されたサンプルパスがガウス過程の後部を通常のコストのごく一部で正確に表現する方法を実証する。
論文 参考訳(メタデータ) (2020-02-21T14:03:16Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z) - Distributionally Robust Bayesian Quadrature Optimization [60.383252534861136]
確率分布が未知な分布の不確実性の下でBQOについて検討する。
標準的なBQOアプローチは、固定されたサンプル集合が与えられたときの真の期待目標のモンテカルロ推定を最大化する。
この目的のために,新しい後方サンプリングに基づくアルゴリズム,すなわち分布的に堅牢なBQO(DRBQO)を提案する。
論文 参考訳(メタデータ) (2020-01-19T12:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。