論文の概要: Can Bayesian Neural Networks Make Confident Predictions?
- arxiv url: http://arxiv.org/abs/2501.11773v1
- Date: Mon, 20 Jan 2025 22:36:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:24:09.817857
- Title: Can Bayesian Neural Networks Make Confident Predictions?
- Title(参考訳): ベイジアンニューラルネットワークは信頼できる予測を可能にするか?
- Authors: Katharine Fisher, Youssef Marzouk,
- Abstract要約: 内層重みに対する離散化事前の下では, 後部予測分布をガウス混合として正確に特徴付けることができることを示す。
また、異なるスケーリング体制における後部予測の収縮を評価することにより、モデルが「データから学習する」能力も特徴付ける。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Bayesian inference promises a framework for principled uncertainty quantification of neural network predictions. Barriers to adoption include the difficulty of fully characterizing posterior distributions on network parameters and the interpretability of posterior predictive distributions. We demonstrate that under a discretized prior for the inner layer weights, we can exactly characterize the posterior predictive distribution as a Gaussian mixture. This setting allows us to define equivalence classes of network parameter values which produce the same likelihood (training error) and to relate the elements of these classes to the network's scaling regime -- defined via ratios of the training sample size, the size of each layer, and the number of final layer parameters. Of particular interest are distinct parameter realizations that map to low training error and yet correspond to distinct modes in the posterior predictive distribution. We identify settings that exhibit such predictive multimodality, and thus provide insight into the accuracy of unimodal posterior approximations. We also characterize the capacity of a model to "learn from data" by evaluating contraction of the posterior predictive in different scaling regimes.
- Abstract(参考訳): ベイズ推論は、ニューラルネットワーク予測の原理的不確実性定量化のためのフレームワークを約束する。
採用の障壁は、ネットワークパラメータの後方分布を完全に特徴づけることの困難さと、後方予測分布の解釈可能性である。
内層重みに対する離散化事前の下では, 後部予測分布をガウス混合として正確に特徴づけることができることを示した。
この設定により、同じ可能性(トレーニングエラー)を生じるネットワークパラメータ値の等価クラスを定義し、トレーニングサンプルサイズ、各層のサイズ、最終層パラメータ数の比率によって、これらのクラスの要素をネットワークのスケーリングレジームに関連付けることができる。
特に興味深いのは、低いトレーニングエラーに対応し、後続の予測分布の異なるモードに対応している、明確なパラメータ実現である。
このような予測的多モード性を示す設定を同定し、不定形後部近似の精度について考察する。
また、異なるスケーリング体制における後部予測の収縮を評価することにより、モデルが「データから学習する」能力も特徴付ける。
関連論文リスト
- Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Improved uncertainty quantification for neural networks with Bayesian
last layer [0.0]
不確実性定量化は機械学習において重要な課題である。
本稿では,BLL を用いた NN の対数乗算可能性の再構成を行い,バックプロパゲーションを用いた効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2023-02-21T20:23:56Z) - Looking at the posterior: accuracy and uncertainty of neural-network
predictions [0.0]
予測精度はてんかんとアレタリック不確実性の両方に依存している。
本稿では,共通不確実性に基づく手法よりも優れた新たな獲得関数を提案する。
論文 参考訳(メタデータ) (2022-11-26T16:13:32Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - The Bayesian Method of Tensor Networks [1.7894377200944511]
ネットワークのベイズ的枠組みを2つの観点から検討する。
本研究では,2次元合成データセットにおけるモデルパラメータと決定境界を可視化することにより,ネットワークのベイズ特性について検討する。
論文 参考訳(メタデータ) (2021-01-01T14:59:15Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z) - Sampling Prediction-Matching Examples in Neural Networks: A
Probabilistic Programming Approach [9.978961706999833]
本稿では,確率的プログラミングを用いた分類器の予測レベルセットの探索について考察する。
我々は,予測器が同一の特定の予測信頼度を持つ例のセットとして,予測レベルを定義した。
合成データセットとMNISTを用いた実験により,本手法を実証する。
論文 参考訳(メタデータ) (2020-01-09T15:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。