論文の概要: Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift
- arxiv url: http://arxiv.org/abs/2006.14988v1
- Date: Fri, 26 Jun 2020 13:50:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 21:03:51.000989
- Title: Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift
- Title(参考訳): 共変量シフトによるベイズ不確かさ校正の改善
- Authors: Alex J. Chan, Ahmed M. Alaa, Zhaozhi Qian and Mihaela van der Schaar
- Abstract要約: 後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
- 参考スコア(独自算出の注目度): 100.52588638477862
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern neural networks have proven to be powerful function approximators,
providing state-of-the-art performance in a multitude of applications. They
however fall short in their ability to quantify confidence in their predictions
- this is crucial in high-stakes applications that involve critical
decision-making. Bayesian neural networks (BNNs) aim at solving this problem by
placing a prior distribution over the network's parameters, thereby inducing a
posterior distribution that encapsulates predictive uncertainty. While existing
variants of BNNs based on Monte Carlo dropout produce reliable (albeit
approximate) uncertainty estimates over in-distribution data, they tend to
exhibit over-confidence in predictions made on target data whose feature
distribution differs from the training data, i.e., the covariate shift setup.
In this paper, we develop an approximate Bayesian inference scheme based on
posterior regularisation, wherein unlabelled target data are used as
"pseudo-labels" of model confidence that are used to regularise the model's
loss on labelled source data. We show that this approach significantly improves
the accuracy of uncertainty quantification on covariate-shifted data sets, with
minimal modification to the underlying model architecture. We demonstrate the
utility of our method in the context of transferring prognostic models of
prostate cancer across globally diverse populations.
- Abstract(参考訳): 現代のニューラルネットワークは強力な関数近似器であることが証明されており、多数のアプリケーションで最先端のパフォーマンスを提供する。
しかし、予測に対する信頼度を定量化する能力には不足している - これは重要な意思決定を伴う高リスクアプリケーションにおいて極めて重要である。
ベイズニューラルネットワーク(bnns)は、ネットワークのパラメータに事前分布を配置することにより、予測の不確かさをカプセル化する後方分布を誘導することで、この問題を解決しようとする。
モンテカルロのドロップアウトに基づく既存のBNNの変種は、分布内データに対する信頼性のある(ほぼ)不確実性推定を生成するが、それらは、特徴分布がトレーニングデータと異なるターゲットデータ、すなわち共変量シフト設定に過信を示す傾向にある。
本稿では,ラベルなしの目標データをラベル付きソースデータに対するモデルの損失を正規化するモデル信頼の「pseudo-labels」として用いることで,後続正規化に基づく近似ベイズ推定手法を提案する。
提案手法は,共変量シフトデータセットにおける不確実性定量化の精度を大幅に向上し,基礎となるモデルアーキテクチャの変更を最小限に抑える。
本研究は, 前立腺癌の予後モデルを, グローバルに分布する集団に伝達する手法の有用性を実証する。
関連論文リスト
- Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Multiclass Alignment of Confidence and Certainty for Network Calibration [10.15706847741555]
最近の研究では、ディープニューラルネットワーク(DNN)が過信的な予測を行う傾向があることが示されている。
予測平均信頼度と予測確実性(MACC)の多クラスアライメントとして知られる簡易なプラグアンドプレイ補助損失を特徴とする列車時キャリブレーション法を提案する。
本手法は,領域内および領域外両方のキャリブレーション性能を実現する。
論文 参考訳(メタデータ) (2023-09-06T00:56:24Z) - Confidence estimation of classification based on the distribution of the
neural network output layer [4.529188601556233]
現実の世界における予測モデルの適用を防ぐための最も一般的な問題の1つは一般化の欠如である。
ニューラルネットワーク分類モデルにより生成された特定の予測の不確かさを推定する新しい手法を提案する。
提案手法は,この予測に対応するロジット値の分布に基づいて,特定の予測の信頼性を推定する。
論文 参考訳(メタデータ) (2022-10-14T12:32:50Z) - Uncertainty-guided Source-free Domain Adaptation [77.3844160723014]
ソースフリードメイン適応(SFDA)は、事前訓練されたソースモデルのみを使用することで、未ラベルのターゲットデータセットに分類器を適応させることを目的としている。
本稿では、ソースモデル予測の不確実性を定量化し、ターゲット適応の導出に利用することを提案する。
論文 参考訳(メタデータ) (2022-08-16T08:03:30Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - A Kernel Framework to Quantify a Model's Local Predictive Uncertainty
under Data Distributional Shifts [21.591460685054546]
訓練されたニューラルネットワークの内部層出力は、そのマッピング機能と入力データ分布の両方に関連するすべての情報を含む。
生予測空間のPDFを明示的に推定する訓練ニューラルネットワークの予測不確実性定量化のためのフレームワークを提案する。
カーネルフレームワークは、モデル予測エラーを検出する能力に基づいて、はるかに精度の高いモデル不確実性推定を提供する。
論文 参考訳(メタデータ) (2021-03-02T00:31:53Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Towards Trustworthy Predictions from Deep Neural Networks with Fast
Adversarial Calibration [2.8935588665357077]
本稿では,ドメインシフト後に得られたサンプルに対して,信頼度の高い信頼度を得るための効率的かつ汎用的なモデリング手法を提案する。
本稿では,エントロピー増大損失項と逆キャリブレーション損失項を組み合わせた新しいトレーニング戦略を導入し,この結果が適切に調整され,技術的に信頼できる予測となることを示す。
論文 参考訳(メタデータ) (2020-12-20T13:39:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。