論文の概要: Revisiting One-vs-All Classifiers for Predictive Uncertainty and
Out-of-Distribution Detection in Neural Networks
- arxiv url: http://arxiv.org/abs/2007.05134v1
- Date: Fri, 10 Jul 2020 01:55:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 21:07:18.502506
- Title: Revisiting One-vs-All Classifiers for Predictive Uncertainty and
Out-of-Distribution Detection in Neural Networks
- Title(参考訳): ニューラルネットワークにおける予測不確実性と分散検出のための1-vs-all分類器の再検討
- Authors: Shreyas Padhy, Zachary Nado, Jie Ren, Jeremiah Liu, Jasper Snoek,
Balaji Lakshminarayanan
- Abstract要約: 識別型分類器における確率のパラメトリゼーションが不確実性推定に与える影響について検討する。
画像分類タスクのキャリブレーションを改善するために, 1-vs-all の定式化が可能であることを示す。
- 参考スコア(独自算出の注目度): 22.34227625637843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate estimation of predictive uncertainty in modern neural networks is
critical to achieve well calibrated predictions and detect out-of-distribution
(OOD) inputs. The most promising approaches have been predominantly focused on
improving model uncertainty (e.g. deep ensembles and Bayesian neural networks)
and post-processing techniques for OOD detection (e.g. ODIN and Mahalanobis
distance). However, there has been relatively little investigation into how the
parametrization of the probabilities in discriminative classifiers affects the
uncertainty estimates, and the dominant method, softmax cross-entropy, results
in misleadingly high confidences on OOD data and under covariate shift. We
investigate alternative ways of formulating probabilities using (1) a
one-vs-all formulation to capture the notion of "none of the above", and (2) a
distance-based logit representation to encode uncertainty as a function of
distance to the training manifold. We show that one-vs-all formulations can
improve calibration on image classification tasks, while matching the
predictive performance of softmax without incurring any additional training or
test-time complexity.
- Abstract(参考訳): 現代のニューラルネットワークにおける予測の不確実性の正確な推定は、適切に校正された予測を達成し、アウト・オブ・ディストリビューション(OOD)入力を検出するために重要である。
最も有望なアプローチは、主にモデル不確実性の改善(ディープアンサンブルやベイズニューラルネットワークなど)とOOD検出のための後処理技術(ODINやマハラノビス距離など)に焦点を当てている。
しかし、識別的分類器における確率のパラメトリゼーションが不確実性推定にどのように影響するかについては、比較的研究が行われておらず、支配的手法であるソフトマックス・クロスエントロピーは、OODデータと共変量シフトに対する誤った高い信頼をもたらす。
1) "none of the above" の概念を捉えたone-vs-all定式化と, (2) 訓練多様体への距離の関数として不確かさを符号化する距離ベースロジット表現を用いて確率を定式化する方法を検討する。
本稿では,画像分類タスクのキャリブレーションを改善するとともに,追加のトレーニングやテストタイムの複雑さを伴わずに,ソフトマックスの予測性能に適合することを示す。
関連論文リスト
- Adaptive Uncertainty Estimation via High-Dimensional Testing on Latent
Representations [28.875819909902244]
不確実性推定は、訓練されたディープニューラルネットワークの信頼性を評価することを目的としている。
既存の不確実性推定アプローチは、低次元分布仮定に依存している。
本研究では,不確実性推定のためのデータ適応型高次元仮説テストを用いた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-25T12:22:18Z) - On double-descent in uncertainty quantification in overparametrized
models [24.073221004661427]
不確かさの定量化は、信頼性と信頼性のある機械学習における中心的な課題である。
最適正規化推定器のキャリブレーション曲線において, 分類精度とキャリブレーションのトレードオフを示す。
これは経験的ベイズ法とは対照的であり、高次一般化誤差と過度パラメトリゼーションにもかかわらず、我々の設定では十分に校正されていることを示す。
論文 参考訳(メタデータ) (2022-10-23T16:01:08Z) - BayesNetCNN: incorporating uncertainty in neural networks for
image-based classification tasks [0.29005223064604074]
本稿では,標準的なニューラルネットワークをベイズニューラルネットワークに変換する手法を提案する。
本研究では,各前方パスにおいて,元のものと類似した異なるネットワークをサンプリングすることにより,予測のばらつきを推定する。
我々は、アルツハイマー病患者の脳画像の大きなコホートを用いて、我々のモデルを検証した。
論文 参考訳(メタデータ) (2022-09-27T01:07:19Z) - Improving Out-of-Distribution Detection via Epistemic Uncertainty
Adversarial Training [29.4569172720654]
我々は,ドロップアウトアンサンブルによって予測される不確実性の攻撃を組み込んだ,単純な対向訓練手法を開発した。
本手法は,OOD検出性能を標準データ上で向上させる(逆向きではない)とともに,ほぼランダムな推定性能から$geq 0.75$まで,標準化された部分AUCを改善する。
論文 参考訳(メタデータ) (2022-09-05T14:32:19Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - On the Practicality of Deterministic Epistemic Uncertainty [106.06571981780591]
決定論的不確実性法(DUM)は,分布外データの検出において高い性能を達成する。
DUMが十分に校正されており、現実のアプリケーションにシームレスにスケールできるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-01T17:59:07Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。