論文の概要: Tubular Riemannian Laplace Approximations for Bayesian Neural Networks
- arxiv url: http://arxiv.org/abs/2512.24381v2
- Date: Sun, 04 Jan 2026 17:41:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 14:31:43.731427
- Title: Tubular Riemannian Laplace Approximations for Bayesian Neural Networks
- Title(参考訳): ベイズニューラルネットワークに対する管状リーマンラプラス近似
- Authors: Rodrigo Pereira David,
- Abstract要約: ラプラス近似はニューラルネットワークにおけるベイズ近似の最も単純かつ実用的な方法の一つである。
近年の研究では、この構造に適応する幾何ガウス近似が提案されている。
本稿では,Tubular Riemannian Laplace (TRL)近似を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Laplace approximations are among the simplest and most practical methods for approximate Bayesian inference in neural networks, yet their Euclidean formulation struggles with the highly anisotropic, curved loss surfaces and large symmetry groups that characterize modern deep models. Recent work has proposed Riemannian and geometric Gaussian approximations to adapt to this structure. Building on these ideas, we introduce the Tubular Riemannian Laplace (TRL) approximation. TRL explicitly models the posterior as a probabilistic tube that follows a low-loss valley induced by functional symmetries, using a Fisher/Gauss-Newton metric to separate prior-dominated tangential uncertainty from data-dominated transverse uncertainty. We interpret TRL as a scalable reparametrised Gaussian approximation that utilizes implicit curvature estimates to operate in high-dimensional parameter spaces. Our empirical evaluation on ResNet-18 (CIFAR-10 and CIFAR-100) demonstrates that TRL achieves excellent calibration, matching or exceeding the reliability of Deep Ensembles (in terms of ECE) while requiring only a fraction (1/5) of the training cost. TRL effectively bridges the gap between single-model efficiency and ensemble-grade reliability.
- Abstract(参考訳): ラプラス近似はニューラルネットワークにおけるベイズ近似の最も単純かつ実践的な方法であるが、ユークリッドの定式化は、非常に異方性があり、湾曲した損失曲面と、現代の深層モデルの特徴を特徴づける大きな対称性群と競合する。
最近の研究は、この構造に適応するリーマンおよび幾何学的ガウス近似を提案した。
これらのアイデアに基づいて、Tubular Riemannian Laplace (TRL)近似を導入する。
TRLは、関数対称性によって誘導される低損失谷に続く確率管として後部を明示的にモデル化し、フィッシャー/ガウス-ニュートン計量を用いて、データ支配の逆不確実性から事前支配された有界不確かさを分離する。
我々はTRLを、暗黙の曲率推定を利用して高次元パラメータ空間で演算するスケーラブルなガウス近似として解釈する。
ResNet-18(CIFAR-10とCIFAR-100)の実証評価により、TRLは訓練コストの1/5しか必要とせず、Deep Ensembles(ECE)の信頼性に優れたキャリブレーション、整合性、あるいは超越性を達成できることを示した。
TRLはシングルモデル効率とアンサンブルグレードの信頼性のギャップを効果的に埋める。
関連論文リスト
- VIKING: Deep variational inference with stochastic projections [48.946143517489496]
変分平均場近似は、現代の過度にパラメータ化されたディープニューラルネットワークと競合する傾向がある。
パラメータ空間の2つの独立線型部分空間を考える単純な変分族を提案する。
これにより、オーバーパラメトリゼーションを反映した、完全に相関した近似後部を構築することができる。
論文 参考訳(メタデータ) (2025-10-27T15:38:35Z) - Iso-Riemannian Optimization on Learned Data Manifolds [6.345340156849189]
アイソ・リーマン幾何学を用いた学習データ多様体の最適化のための原理的フレームワークを提案する。
提案手法は,解釈可能なバリセンタ,クラスタリングの改善,逆問題に対する効率の良い解が得られることを示す。
これらの結果は、アイソ・リーマン幾何学の下での最適化が、学習された多様体の写像に固有の歪みを克服できることを証明している。
論文 参考訳(メタデータ) (2025-10-23T22:34:55Z) - Guaranteed Noisy CP Tensor Recovery via Riemannian Optimization on the Segre Manifold [9.804487437104289]
階数 1 のテンソルの内在幾何学を、回復タスクをセグレ多様体上の最適化問題としてキャストすることで活用する。
RGD は局所的2次収束相を示し,RGN は局所的2次収束相を示し,繰り返しが統計ノイズフロアに近づくと線形に遷移する。
論文 参考訳(メタデータ) (2025-10-01T06:44:52Z) - Deep Equilibrium models for Poisson Imaging Inverse problems via Mirror Descent [7.248102801711294]
ディープ平衡モデル(Deep Equilibrium Models、DEQ)は、固定点を持つ暗黙のニューラルネットワークである。
我々は、非ユークリッド幾何学の仕方で定義されるミラー・ディクセントに基づく新しいDEC式を導入する。
本稿では,効率的なトレーニングと完全パラメータフリー推論が可能な計算戦略を提案する。
論文 参考訳(メタデータ) (2025-07-15T16:33:01Z) - A Bayesian Approach Toward Robust Multidimensional Ellipsoid-Specific Fitting [0.0]
本研究は, ノイズおよび外周波の汚染における散乱データに多次元楕円体を適合させる, 新規で効果的な方法を提案する。
楕円体領域内でのプリミティブパラメータの探索を制約するために、均一な事前分布を組み込む。
本研究では, 顕微鏡細胞計数, 3次元再構成, 幾何学的形状近似, 磁力計の校正タスクなど, 幅広い応用に応用する。
論文 参考訳(メタデータ) (2024-07-27T14:31:51Z) - Bayesian Circular Regression with von Mises Quasi-Processes [57.88921637944379]
本研究では、円値ランダム関数上の表現的および解釈可能な分布の族を探索する。
後部推論のために,高速ギブズサンプリングに寄与するストラトノビッチ様拡張法を導入する。
本研究では,このモデルを用いて風向予測と走行歩行周期のパーセンテージを関節角度の関数として適用する実験を行った。
論文 参考訳(メタデータ) (2024-06-19T01:57:21Z) - Geometry-Aware Normalizing Wasserstein Flows for Optimal Causal
Inference [0.0]
本稿では,パラメトリックサブモデルと連続正規化フローを統合することにより,因果推論に対する画期的なアプローチを提案する。
我々は、最適輸送とワッサーシュタイン勾配流を利用して、有限サンプル設定における最小分散の因果推論手法を開発する。
予備実験では, 従来の流れに比べて平均二乗誤差が低い。
論文 参考訳(メタデータ) (2023-11-30T18:59:05Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Last-Iterate Convergence of Adaptive Riemannian Gradient Descent for Equilibrium Computation [52.73824786627612]
本稿では,テクスト幾何学的強単調ゲームに対する新たな収束結果を確立する。
我々のキーとなる結果は、RGDがテクスト幾何学的手法で最終定位線形収束を実現することを示しています。
全体として、ユークリッド設定を超えるゲームに対して、幾何学的に非依存な最終点収束解析を初めて提示する。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。