論文の概要: Variational Bayesian Neural Networks via Resolution of Singularities
- arxiv url: http://arxiv.org/abs/2302.06035v1
- Date: Mon, 13 Feb 2023 00:32:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 17:01:31.371083
- Title: Variational Bayesian Neural Networks via Resolution of Singularities
- Title(参考訳): 特異点の分解による変分ベイズニューラルネットワーク
- Authors: Susan Wei, Edmund Lau
- Abstract要約: ベイズニューラルネットワーク(BNN)における変分推論の理論と実践に関連する特異学習理論(SLT)の重要性を提唱する。
本研究では, 下流予測性能, テストログ予測密度, 変動目標との相違点を取り巻く混乱を補う。
我々は,SLT補正形式を特異な後部分布に用いて,変分族自体の設計を知らせる。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this work, we advocate for the importance of singular learning theory
(SLT) as it pertains to the theory and practice of variational inference in
Bayesian neural networks (BNNs). To begin, using SLT, we lay to rest some of
the confusion surrounding discrepancies between downstream predictive
performance measured via e.g., the test log predictive density, and the
variational objective. Next, we use the SLT-corrected asymptotic form for
singular posterior distributions to inform the design of the variational family
itself. Specifically, we build upon the idealized variational family introduced
in \citet{bhattacharya_evidence_2020} which is theoretically appealing but
practically intractable. Our proposal takes shape as a normalizing flow where
the base distribution is a carefully-initialized generalized gamma. We conduct
experiments comparing this to the canonical Gaussian base distribution and show
improvements in terms of variational free energy and variational generalization
error.
- Abstract(参考訳): 本研究では,ベイズニューラルネットワーク(BNN)における変分推論の理論と実践に関連して,特異学習理論(SLT)の重要性を提唱する。
まず, SLTを用いて, 下流予測性能, テストログ予測密度, 変動目標との相違点を取り巻く混乱を解消する。
次に,特異な後方分布に対するslt補正漸近形式を用いて,変分族自体の設計を知らせる。
具体的には、理論上は魅力的だが実質的に難解な \citet{bhattacharya_evidence_2020} に導入された理想化された変分系を構築する。
本提案は,基本分布が注意深く初期化された一般化ガンマである正規化フローとして形容する。
我々は、これを標準ガウス基底分布と比較する実験を行い、変分自由エネルギーと変分一般化誤差の観点から改善を示す。
関連論文リスト
- A Non-negative VAE:the Generalized Gamma Belief Network [49.970917207211556]
ガンマ信念ネットワーク(GBN)は、テキストデータ中の多層解釈可能な潜在表現を明らかにする可能性を実証している。
本稿では、一般化ガンマ信念ネットワーク(Generalized GBN)を導入し、元の線形生成モデルをより表現力のある非線形生成モデルに拡張する。
また、潜伏変数の後方分布を近似する上向きのワイブル推論ネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-06T18:18:37Z) - Modify Training Directions in Function Space to Reduce Generalization
Error [9.821059922409091]
本稿では,ニューラルネットワーク関数空間におけるニューラルタンジェントカーネルとフィッシャー情報行列の固有分解に基づく自然勾配降下法を提案する。
固有分解と統計理論から理論的手法を用いて学習したニューラルネットワーク関数の一般化誤差を明示的に導出する。
論文 参考訳(メタデータ) (2023-07-25T07:11:30Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Optimization Variance: Exploring Generalization Properties of DNNs [83.78477167211315]
ディープニューラルネットワーク(DNN)のテストエラーは、しばしば二重降下を示す。
そこで本研究では,モデル更新の多様性を測定するために,新しい測度である最適化分散(OV)を提案する。
論文 参考訳(メタデータ) (2021-06-03T09:34:17Z) - Variational Laplace for Bayesian neural networks [25.055754094939527]
Variational Laplaceは、ニューラルネットワークの重みをサンプリングすることなく、ELBOを推定する可能性の局所近似を利用する。
分散パラメータの学習率を増加させることで早期停止を回避できることを示す。
論文 参考訳(メタデータ) (2021-02-27T14:06:29Z) - Variational Laplace for Bayesian neural networks [33.46810568687292]
我々はベイズニューラルネットワーク(BNN)のための変分ラプラスを開発する。
我々は,ニューラルネットワークの重みをサンプリングすることなく,ELBOの曲率を局所的に近似し,ELBOを推定する。
分散パラメータの学習率を増大させることにより,早期停止を回避できることを示す。
論文 参考訳(メタデータ) (2020-11-20T15:16:18Z) - Statistical Guarantees for Transformation Based Models with Applications
to Implicit Variational Inference [8.333191406788423]
非パラメトリック推論における非線形潜在変数モデル(NL-LVM)の使用に関する理論的正当性を提供する。
我々はNL-LVMを用いて、GP-IVIとみなす変分分布の暗黙の族を構築する。
私たちの知る限りでは、暗黙の変分推論の理論的保証を提供するための最初の研究である。
論文 参考訳(メタデータ) (2020-10-23T21:06:29Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。