論文の概要: The Bayesian Confidence (BACON) Estimator for Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2410.12604v1
- Date: Wed, 16 Oct 2024 14:23:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:41:36.329865
- Title: The Bayesian Confidence (BACON) Estimator for Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークのためのベイズ信頼度推定器(BACON)
- Authors: Patrick D. Kee, Max J. Brown, Jonathan C. Rice, Christian A. Howell,
- Abstract要約: 本稿では、ディープニューラルネットワークのためのベイズ信頼度推定器(BACON)を紹介する。
BACONは、ResNet-18のSoftmaxと比較して85%の精度でECEとACEの校正誤差が優れている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper introduces the Bayesian Confidence Estimator (BACON) for deep neural networks. Current practice of interpreting Softmax values in the output layer as probabilities of outcomes is prone to extreme predictions of class probability. In this work we extend Waagen's method of representing the terminal layers with a geometric model, where the probability associated with an output vector is estimated with Bayes' Rule using validation data to provide likelihood and normalization values. This estimator provides superior ECE and ACE calibration error compared to Softmax for ResNet-18 at 85% network accuracy, and EfficientNet-B0 at 95% network accuracy, on the CIFAR-10 dataset with an imbalanced test set, except for very high accuracy edge cases. In addition, when using the ACE metric, BACON demonstrated improved calibration error when estimating probabilities for the imbalanced test set when using actual class distribution fractions.
- Abstract(参考訳): 本稿では、ディープニューラルネットワークのためのベイズ信頼度推定器(BACON)を紹介する。
出力層内のSoftmax値を結果の確率として解釈する現在の実践は、クラス確率の極端な予測につながる。
本研究は,ベイズ則を用いて出力ベクトルに付随する確率を推定し,確率および正規化値を提供する幾何学モデルを用いて端末層を表現するWaagenの手法を拡張する。
この推定器は、85%のネットワーク精度でResNet-18のSoftmaxよりも優れたECEとACEの校正誤差を提供し、95%のネットワーク精度で効率の良いNet-B0を、非常に高い精度のエッジケースを除いて不均衡なテストセットを持つCIFAR-10データセット上で提供する。
さらに,ACE測定値を用いた場合,BACONは,実際のクラス分布分数を用いて不均衡なテストセットの確率を推定する場合,キャリブレーション誤差が向上することを示した。
関連論文リスト
- What Does Softmax Probability Tell Us about Classifiers Ranking Across Diverse Test Conditions? [19.939014335673633]
我々はSoftmax correlation(SoftmaxCorr)と呼ばれる新しい尺度を導入する。
クラスクラス相関行列と予め定義された参照行列との間のコサイン類似性を計算する。
基準行列の予測と高い類似性は、モデルが自信と均一な予測をもたらすことを示唆する。
論文 参考訳(メタデータ) (2024-06-14T10:36:26Z) - Credal Wrapper of Model Averaging for Uncertainty Estimation on Out-Of-Distribution Detection [5.19656787424626]
本稿では,ベイズニューラルネットワーク(BNN)と深層アンサンブルのモデル平均化のクレダルセット表現を定式化するための,クレダルラッパー(redal wrapper)と呼ばれる革新的なアプローチを提案する。
BNNや深層アンサンブルから導かれる単一分布の有限個の集合が与えられた場合、提案手法はクラスごとの上層と下層の確率境界を抽出する。
提案手法は,BNNおよび深層アンサンブルベースラインと比較して,不確実性推定において優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-23T20:51:22Z) - Calibration Error Estimation Using Fuzzy Binning [0.0]
ファジィビンニング手法を用いてキャリブレーション誤差を算出するファジィ誤差計量(FCE)を提案する。
以上の結果から,FCEは特にマルチクラス設定において,キャリブレーション誤差の予測に優れることがわかった。
論文 参考訳(メタデータ) (2023-04-30T18:06:14Z) - Improved uncertainty quantification for neural networks with Bayesian
last layer [0.0]
不確実性定量化は機械学習において重要な課題である。
本稿では,BLL を用いた NN の対数乗算可能性の再構成を行い,バックプロパゲーションを用いた効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2023-02-21T20:23:56Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z) - Exploring the Uncertainty Properties of Neural Networks' Implicit Priors
in the Infinite-Width Limit [47.324627920761685]
我々は、無限大のNNのアンサンブルに先立って関数空間をガウス過程として特徴づける最近の理論的進歩を用いる。
これにより、関数空間上の暗黙の前のNNについて、よりよく理解できます。
また,従来のNNGPを用いた分類手法の校正について検討した。
論文 参考訳(メタデータ) (2020-10-14T18:41:54Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z) - Being Bayesian, Even Just a Bit, Fixes Overconfidence in ReLU Networks [65.24701908364383]
我々は、ReLUネットワーク上の不確実性に対する十分条件が「少しベイズ校正される」ことを示す。
さらに,これらの知見を,共通深部ReLUネットワークとLaplace近似を用いた各種標準実験により実証的に検証した。
論文 参考訳(メタデータ) (2020-02-24T08:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。