論文の概要: On the detrimental effect of invariances in the likelihood for
variational inference
- arxiv url: http://arxiv.org/abs/2209.07157v1
- Date: Thu, 15 Sep 2022 09:13:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 13:09:08.437264
- Title: On the detrimental effect of invariances in the likelihood for
variational inference
- Title(参考訳): 変分推論の可能性における不変性の影響について
- Authors: Richard Kurle, Ralf Herbrich, Tim Januschowski, Yuyang Wang, Jan
Gasthaus
- Abstract要約: 変分ベイズ後部推論は、トラクタビリティを確保するために平均場パラメトリゼーションのような近似を単純化する必要があることが多い。
これまでの研究は、ベイズニューラルネットワークの変動平均場近似と、小さなデータセットや大きなモデルサイズの場合の不適合を関連付けてきた。
- 参考スコア(独自算出の注目度): 21.912271882110986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational Bayesian posterior inference often requires simplifying
approximations such as mean-field parametrisation to ensure tractability.
However, prior work has associated the variational mean-field approximation for
Bayesian neural networks with underfitting in the case of small datasets or
large model sizes. In this work, we show that invariances in the likelihood
function of over-parametrised models contribute to this phenomenon because
these invariances complicate the structure of the posterior by introducing
discrete and/or continuous modes which cannot be well approximated by Gaussian
mean-field distributions. In particular, we show that the mean-field
approximation has an additional gap in the evidence lower bound compared to a
purpose-built posterior that takes into account the known invariances.
Importantly, this invariance gap is not constant; it vanishes as the
approximation reverts to the prior. We proceed by first considering translation
invariances in a linear model with a single data point in detail. We show that,
while the true posterior can be constructed from a mean-field parametrisation,
this is achieved only if the objective function takes into account the
invariance gap. Then, we transfer our analysis of the linear model to neural
networks. Our analysis provides a framework for future work to explore
solutions to the invariance problem.
- Abstract(参考訳): 変分ベイズ後部推論は、トラクタビリティを確保するために平均場パラメトリゼーションのような近似を単純化する必要があることが多い。
しかし、以前の研究は、ベイズニューラルネットワークの変動平均場近似と、小さなデータセットや大きなモデルサイズの場合の不適合を関連付けている。
本研究は, この不変性が, ガウス平均場分布ではよく近似できない離散モードおよび/または連続モードを導入することにより, 後方構造を複雑にするため, 過パラメータモデルの不斉関数がこの現象に寄与することを示す。
特に, 平均場近似は, 既知の不変性を考慮した目的に構築された後方法と比較して, エビデンス下限に差があることが示されている。
重要なことに、この差分ギャップは一定ではなく、近似が前の値に戻ると消える。
まず、単一のデータポイントを持つ線形モデルにおける翻訳不変性を詳細に検討する。
平均場パラメトリションから真の後部を構築できるが、これは目的関数が分散ギャップを考慮に入れた場合にのみ達成されることを示す。
次に,線形モデルの解析結果をニューラルネットワークに転送する。
我々の分析は、分散問題に対する解決策を探求する将来の研究のためのフレームワークを提供する。
関連論文リスト
- Reparameterization invariance in approximate Bayesian inference [32.88960624085645]
線形化の成功を説明するために, 線形化の新たな幾何学的視点を構築した。
これらのreパラメータ化不変性は、元のニューラルネットワーク予測に拡張可能であることを実証する。
論文 参考訳(メタデータ) (2024-06-05T14:49:15Z) - Amortizing intractable inference in diffusion models for vision, language, and control [89.65631572949702]
本稿では,p(mathbfx)$以前の拡散生成モデルとブラックボックス制約,あるいは関数$r(mathbfx)$からなるモデルにおいて,データ上の後部サンプルである $mathbfxsim prm post(mathbfx)propto p(mathbfx)r(mathbfx)$について検討する。
我々は,データフリー学習目標である相対軌道バランスの正しさを,サンプルから抽出した拡散モデルの訓練のために証明する。
論文 参考訳(メタデータ) (2024-05-31T16:18:46Z) - Reliable amortized variational inference with physics-based latent
distribution correction [0.4588028371034407]
ニューラルネットワークは、既存のモデルとデータのペアの後方分布を近似するように訓練される。
このアプローチの精度は、高忠実度トレーニングデータの可用性に依存する。
補正ステップは, ソース実験数の変化, ノイズ分散, 先行分布の変化に対して, 償却された変分推論の頑健さを向上することを示す。
論文 参考訳(メタデータ) (2022-07-24T02:38:54Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Reducing the Amortization Gap in Variational Autoencoders: A Bayesian
Random Function Approach [38.45568741734893]
GPモデルの推論は、セミアモタイズ法よりもはるかに高速な1つのフィードフォワードパスによって行われる。
提案手法は,複数のベンチマークデータセットの最先端データよりも高い確率でテストデータが得られることを示す。
論文 参考訳(メタデータ) (2021-02-05T13:01:12Z) - Understanding Variational Inference in Function-Space [20.940162027560408]
この設定で、Kullback-Leiblerの発散を利用する際の利点と制限を強調します。
近似品質を直接測定する関数空間推論手法のベンチマークとしてベイズ線形回帰法を提案する。
論文 参考訳(メタデータ) (2020-11-18T17:42:01Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - The k-tied Normal Distribution: A Compact Parameterization of Gaussian
Mean Field Posteriors in Bayesian Neural Networks [46.677567663908185]
変分ベイズ推論は、ベイズニューラルネットワークの重み付けを近似する一般的な手法である。
最近の研究は、性能向上を期待して、近似後部のよりリッチなパラメータ化を探求している。
これらの変動パラメータを低ランク因子化に分解することにより、モデルの性能を低下させることなく変動近似をよりコンパクトにすることができる。
論文 参考訳(メタデータ) (2020-02-07T07:33:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。