論文の概要: Being Bayesian, Even Just a Bit, Fixes Overconfidence in ReLU Networks
- arxiv url: http://arxiv.org/abs/2002.10118v2
- Date: Fri, 17 Jul 2020 15:04:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 03:02:58.692467
- Title: Being Bayesian, Even Just a Bit, Fixes Overconfidence in ReLU Networks
- Title(参考訳): ほんの少しでもベイジアンであることは、ReLUネットワークの過信を和らげる
- Authors: Agustinus Kristiadi, Matthias Hein, Philipp Hennig
- Abstract要約: 我々は、ReLUネットワーク上の不確実性に対する十分条件が「少しベイズ校正される」ことを示す。
さらに,これらの知見を,共通深部ReLUネットワークとLaplace近似を用いた各種標準実験により実証的に検証した。
- 参考スコア(独自算出の注目度): 65.24701908364383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The point estimates of ReLU classification networks---arguably the most
widely used neural network architecture---have been shown to yield arbitrarily
high confidence far away from the training data. This architecture, in
conjunction with a maximum a posteriori estimation scheme, is thus not
calibrated nor robust. Approximate Bayesian inference has been empirically
demonstrated to improve predictive uncertainty in neural networks, although the
theoretical analysis of such Bayesian approximations is limited. We
theoretically analyze approximate Gaussian distributions on the weights of ReLU
networks and show that they fix the overconfidence problem. Furthermore, we
show that even a simplistic, thus cheap, Bayesian approximation, also fixes
these issues. This indicates that a sufficient condition for a calibrated
uncertainty on a ReLU network is "to be a bit Bayesian". These theoretical
results validate the usage of last-layer Bayesian approximation and motivate a
range of a fidelity-cost trade-off. We further validate these findings
empirically via various standard experiments using common deep ReLU networks
and Laplace approximations.
- Abstract(参考訳): relu分類ネットワーク(最も広く使われているニューラルネットワークアーキテクチャ)のポイント推定は、トレーニングデータから任意に高い信頼性をもたらすことが示されている。
このアーキテクチャは、最大後方推定スキームと相まって、校正もロバストもされていない。
近似ベイズ推定はニューラルネットワークの予測の不確実性を改善するために実証的に証明されているが、ベイズ近似の理論解析は限られている。
reluネットワークの重みに関する近似ガウス分布を理論的に解析し,過信頼問題を解くことを証明した。
さらに,単純で安価で安価なベイズ近似でさえ,これらの問題を修正できることを示した。
これは、reluネットワーク上の不確かさを校正するのに十分な条件が「少しベイズ的」であることを示している。
これらの理論的な結果は最終層ベイズ近似の使用を検証し、忠実度-コストのトレードオフの範囲を動機付ける。
さらに, 深層reluネットワークとラプラス近似を用いて, 各種標準実験を行い, 実験結果の検証を行った。
関連論文リスト
- Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Deep Anti-Regularized Ensembles provide reliable out-of-distribution
uncertainty quantification [4.750521042508541]
深層アンサンブルは、しばしばトレーニングドメインの外で過度に信頼された見積を返す。
トレーニングデータに適合する大きな重みを持つネットワークの集合は、これらの2つの目的を満たす可能性が高いことを示す。
提案手法の理論的枠組みを導出し,提案手法を「水充填問題」とみなすことができることを示す。
論文 参考訳(メタデータ) (2023-04-08T15:25:12Z) - Improved uncertainty quantification for neural networks with Bayesian
last layer [0.0]
不確実性定量化は機械学習において重要な課題である。
本稿では,BLL を用いた NN の対数乗算可能性の再構成を行い,バックプロパゲーションを用いた効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2023-02-21T20:23:56Z) - Variational Inference: Posterior Threshold Improves Network Clustering Accuracy in Sparse Regimes [2.5782420501870296]
本稿では,各反復後のコミュニティ割り当ての後部をハードしきい値にすることで,変分推論法を改善するための簡易な方法を提案する。
提案手法は,ネットワークの平均ノード次数が有界であっても,真のコミュニティラベルを収束させ,正確に復元可能であることを示す。
論文 参考訳(メタデータ) (2023-01-12T00:24:54Z) - Mixtures of Laplace Approximations for Improved Post-Hoc Uncertainty in
Deep Learning [24.3370326359959]
独立に訓練された深層ニューラルネットワークのラプラス近似の重み付け和からなるガウス混合モデル後部モデルを用いて予測することを提案する。
我々は,本手法がトレーニングデータから「遠方」に過信を緩和し,標準不確実性定量化ベンチマークにおける最先端のベースラインを実証的に比較することを理論的に検証した。
論文 参考訳(メタデータ) (2021-11-05T15:52:48Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Uncertainty Quantification in Deep Residual Neural Networks [0.0]
不確かさの定量化は、ディープラーニングにおいて重要で困難な問題である。
以前の方法は、現代のディープアーキテクチャやバッチサイズに敏感なバッチ正規化には存在しないドロップアウト層に依存していた。
本研究では,ニューラルネットワークの後方重みに対する変動近似として,深度を用いた残留ネットワークのトレーニングが可能であることを示す。
論文 参考訳(メタデータ) (2020-07-09T16:05:37Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。