論文の概要: On Calibrated Model Uncertainty in Deep Learning
- arxiv url: http://arxiv.org/abs/2206.07795v1
- Date: Wed, 15 Jun 2022 20:16:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-18 19:12:23.734286
- Title: On Calibrated Model Uncertainty in Deep Learning
- Title(参考訳): ディープラーニングにおける校正モデル不確かさについて
- Authors: Biraja Ghoshal and Allan Tucker
- Abstract要約: 損失校正されたベイジアンフレームワークの近似推論を,ドロップウェイトに基づくベイジアンニューラルネットワークに拡張する。
損失校正された不確実性から得られる決定は、簡単な代替手段よりも、診断性能を大幅に向上させることができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Estimated uncertainty by approximate posteriors in Bayesian neural networks
are prone to miscalibration, which leads to overconfident predictions in
critical tasks that have a clear asymmetric cost or significant losses. Here,
we extend the approximate inference for the loss-calibrated Bayesian framework
to dropweights based Bayesian neural networks by maximising expected utility
over a model posterior to calibrate uncertainty in deep learning. Furthermore,
we show that decisions informed by loss-calibrated uncertainty can improve
diagnostic performance to a greater extent than straightforward alternatives.
We propose Maximum Uncertainty Calibration Error (MUCE) as a metric to measure
calibrated confidence, in addition to its prediction especially for high-risk
applications, where the goal is to minimise the worst-case deviation between
error and estimated uncertainty. In experiments, we show the correlation
between error in prediction and estimated uncertainty by interpreting
Wasserstein distance as the accuracy of prediction. We evaluated the
effectiveness of our approach to detecting Covid-19 from X-Ray images.
Experimental results show that our method reduces miscalibration considerably,
without impacting the models accuracy and improves reliability of
computer-based diagnostics.
- Abstract(参考訳): ベイズニューラルネットワークの近似後部による推定不確実性は誤校正しがちであり、これは明らかに非対称なコストや大きな損失を持つ重要なタスクにおいて過度に信頼される予測をもたらす。
本稿では,損失補償ベイズフレームワークの近似推論を,ディープラーニングにおける不確かさを校正するためのモデルに対する期待効用を最大化することにより,ドロップウェイトベースのベイズニューラルネットワークに拡張する。
さらに, 損失補償不確実性に基づく判断は, 簡便な代替手段よりも診断性能を向上できることを示した。
本稿では,最大不確かさ校正誤差(MUCE)を校正信頼度を測定する指標として提案する。特にリスクの高いアプリケーションでは,誤差と推定不確かさの最悪の偏差を最小限に抑えることが目的である。
実験では,予測精度としてwasserstein距離を解釈し,予測誤差と推定不確実性との関係を示した。
x線画像からcovid-19検出法の有効性を評価した。
実験の結果,モデルの精度に影響を与えずに誤校正を著しく低減し,コンピュータによる診断の信頼性を向上させることができた。
関連論文リスト
- Deep Evidential Learning for Radiotherapy Dose Prediction [0.0]
本稿では放射線治療用線量予測分野におけるDeep Evidential Learningと呼ばれる不確実性定量化フレームワークの新たな応用法を提案する。
このモデルは,ネットワークトレーニング完了時の予測誤差と相関関係を持つ不確実性推定に有効に活用できることを見出した。
論文 参考訳(メタデータ) (2024-04-26T02:43:45Z) - Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Reliable Multimodal Trajectory Prediction via Error Aligned Uncertainty
Optimization [11.456242421204298]
よく校正されたモデルでは、不確実性推定はモデル誤差と完全に相関する。
本稿では,モデル誤差に整合した品質不確実性推定を導出するための,新しい誤差整合不確実性最適化手法を提案する。
本研究では, 平均変位誤差を1.69%, 4.69%, モデル誤差との不確実性相関を17.22%, 19.13%, ピアソン相関係数で定量化することにより, 平均変位誤差を1.69%, 4.69%改善することを示した。
論文 参考訳(メタデータ) (2022-12-09T12:33:26Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Improving model calibration with accuracy versus uncertainty
optimization [17.056768055368384]
適切に校正されたモデルは、その予測が確実であるときに正確であり、不正確な場合に高い不確実性を示すべきである。
精度と不確実性の関係を不確実性校正のアンカーとして活用する最適化手法を提案する。
平均場変動推定によるアプローチの実証と最先端手法との比較を行った。
論文 参考訳(メタデータ) (2020-12-14T20:19:21Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Calibration of Model Uncertainty for Dropout Variational Inference [1.8065361710947976]
本稿では,モデルの不確実性を再検討するために,異なるロジットスケーリング手法を拡張し,変動予測をドロップアウトに拡張する。
実験の結果,ロジットスケーリングはUCEによる誤校正を著しく低減することがわかった。
論文 参考訳(メタデータ) (2020-06-20T14:12:55Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。