論文の概要: Walking on the Fiber: A Simple Geometric Approximation for Bayesian Neural Networks
- arxiv url: http://arxiv.org/abs/2512.01500v1
- Date: Mon, 01 Dec 2025 10:24:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.80069
- Title: Walking on the Fiber: A Simple Geometric Approximation for Bayesian Neural Networks
- Title(参考訳): ファイバーのウォーキング:ベイズニューラルネットワークの簡易幾何近似
- Authors: Alfredo Reichlin, Miguel Vasco, Danica Kragic,
- Abstract要約: 本研究では,後部探査のためのサンプリング手法を再検討する。
本稿では,パラメータ空間の変形を学習し,反復的手法を必要とせずに高速な後続サンプリングを可能にするモデルを提案する。
実験結果から,本手法は後方近似の競合性を実証した。
- 参考スコア(独自算出の注目度): 14.632351275859696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian Neural Networks provide a principled framework for uncertainty quantification by modeling the posterior distribution of network parameters. However, exact posterior inference is computationally intractable, and widely used approximations like the Laplace method struggle with scalability and posterior accuracy in modern deep networks. In this work, we revisit sampling techniques for posterior exploration, proposing a simple variation tailored to efficiently sample from the posterior in over-parameterized networks by leveraging the low-dimensional structure of loss minima. Building on this, we introduce a model that learns a deformation of the parameter space, enabling rapid posterior sampling without requiring iterative methods. Empirical results demonstrate that our approach achieves competitive posterior approximations with improved scalability compared to recent refinement techniques. These contributions provide a practical alternative for Bayesian inference in deep learning.
- Abstract(参考訳): ベイズニューラルネットワークは、ネットワークパラメータの後方分布をモデル化し、不確実性定量化のための原則的なフレームワークを提供する。
しかし、正確な後部推論は計算可能であり、現代のディープネットワークではラプラス法のような近似がスケーラビリティと後部精度に苦戦している。
本研究では,損失最小値の低次元構造を利用して,過パラメータ化ネットワークの後方から効率的に試料を採取するための簡易なバリエーションを提案,後部探査のためのサンプリング手法を再検討する。
そこで本研究では,パラメータ空間の変形を学習し,反復的手法を必要とせずに高速な後部サンプリングを可能にするモデルを提案する。
提案手法は,最近の改良技術と比較して,拡張性の向上により,競争力のある後部近似を実現することを示す。
これらの貢献は、ディープラーニングにおけるベイズ推論の実践的な代替手段を提供する。
関連論文リスト
- VIKING: Deep variational inference with stochastic projections [48.946143517489496]
変分平均場近似は、現代の過度にパラメータ化されたディープニューラルネットワークと競合する傾向がある。
パラメータ空間の2つの独立線型部分空間を考える単純な変分族を提案する。
これにより、オーバーパラメトリゼーションを反映した、完全に相関した近似後部を構築することができる。
論文 参考訳(メタデータ) (2025-10-27T15:38:35Z) - Verification of Geometric Robustness of Neural Networks via Piecewise Linear Approximation and Lipschitz Optimisation [57.10353686244835]
我々は、回転、スケーリング、せん断、翻訳を含む入力画像の幾何学的変換に対するニューラルネットワークの検証の問題に対処する。
提案手法は, 分枝・分枝リプシッツと組み合わせたサンプリングおよび線形近似を用いて, 画素値に対する楽音線形制約を求める。
提案手法では,既存の手法よりも最大32%の検証ケースが解決されている。
論文 参考訳(メタデータ) (2024-08-23T15:02:09Z) - Posterior and variational inference for deep neural networks with heavy-tailed weights [0.0]
我々は、ネットワーク重みをランダムにサンプリングする事前分布を持つベイズフレームワークにおいて、ディープニューラルネットワークを考察する。
後部分布は, ほぼ最適のミニマックス収縮速度を達成できることを示す。
また, 実験結果の変分ベイズ版も提供し, 平均場変分近似は, ほぼ最適理論的支援の恩恵を受けていることを示した。
論文 参考訳(メタデータ) (2024-06-05T15:24:20Z) - Implicit Variational Inference for High-Dimensional Posteriors [7.924706533725115]
変分推論において、ベイズモデルの利点は、真の後続分布を正確に捉えることに依存する。
複雑な多重モーダルおよび相関後部を近似するのに適した暗黙分布を特定するニューラルサンプリング手法を提案する。
提案手法では,ニューラルネットワークを局所的に線形化することにより,暗黙分布を用いた近似推論の新たなバウンダリを導入する。
論文 参考訳(メタデータ) (2023-10-10T14:06:56Z) - Joint Bayesian Inference of Graphical Structure and Parameters with a
Single Generative Flow Network [59.79008107609297]
本稿では,ベイジアンネットワークの構造上の結合後部を近似する手法を提案する。
サンプリングポリシが2フェーズプロセスに従う単一のGFlowNetを使用します。
パラメータは後部分布に含まれるため、これは局所確率モデルに対してより柔軟である。
論文 参考訳(メタデータ) (2023-05-30T19:16:44Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。