論文の概要: Model-Free Local Recalibration of Neural Networks
- arxiv url: http://arxiv.org/abs/2403.05756v1
- Date: Sat, 9 Mar 2024 01:58:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 12:29:59.731537
- Title: Model-Free Local Recalibration of Neural Networks
- Title(参考訳): ニューラルネットワークのモデル自由局所再校正
- Authors: R. Torres (1), D. J. Nott (2), S. A. Sisson (3), T. Rodrigues (1), J.
G. Reis (1), G. S. Rodrigues (1) ((1) University of Bras\'ilia, (2) National
University of Singapore, (3) University of New South Wales, Sydney)
- Abstract要約: 可算確率予測は、多くの重要な意思決定タスクに限られている。
入力の次元再現表現を用いたANN予測分布の局所的再分類を提案する。
提案手法は,代替手法と比較して優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial neural networks (ANNs) are highly flexible predictive models.
However, reliably quantifying uncertainty for their predictions is a continuing
challenge. There has been much recent work on "recalibration" of predictive
distributions for ANNs, so that forecast probabilities for events of interest
are consistent with certain frequency evaluations of them. Uncalibrated
probabilistic forecasts are of limited use for many important decision-making
tasks. To address this issue, we propose a localized recalibration of ANN
predictive distributions using the dimension-reduced representation of the
input provided by the ANN hidden layers. Our novel method draws inspiration
from recalibration techniques used in the literature on approximate Bayesian
computation and likelihood-free inference methods. Most existing calibration
methods for ANNs can be thought of as calibrating either on the input layer,
which is difficult when the input is high-dimensional, or the output layer,
which may not be sufficiently flexible. Through a simulation study, we
demonstrate that our method has good performance compared to alternative
approaches, and explore the benefits that can be achieved by localizing the
calibration based on different layers of the network. Finally, we apply our
proposed method to a diamond price prediction problem, demonstrating the
potential of our approach to improve prediction and uncertainty quantification
in real-world applications.
- Abstract(参考訳): ニューラルネットワーク(anns)は、非常に柔軟な予測モデルである。
しかし、予測の不確かさを確実に定量化することは継続的な課題である。
ANNの予測分布の「校正」に関する最近の研究が盛んに行われており、興味のある事象の予測確率は特定の頻度評価と一致している。
可算確率予測は、多くの重要な意思決定タスクに限られている。
この問題に対処するために,ANNの隠れ層によって提供される入力の次元還元表現を用いて,ANN予測分布の局所化再構成を提案する。
提案手法は,ベイズ近似計算法と確率自由推論法に関する文献の校正手法から着想を得たものである。
既存のANNのキャリブレーション手法の多くは、入力層が高次元である場合のキャリブレーションが困難である場合や、十分な柔軟性がない場合の出力層とみなすことができる。
シミュレーション実験により,提案手法は代替手法に比べて優れた性能を示し,ネットワークの異なる層に基づいてキャリブレーションを局所化することで得られる利点を検証した。
最後に,提案手法をダイヤモンド価格予測問題に適用し,実世界の応用における予測と不確実性定量化の改善に向けたアプローチの可能性を示す。
関連論文リスト
- Uncertainty Quantification via Stable Distribution Propagation [60.065272548502]
本稿では,ニューラルネットワークによる安定確率分布の伝播手法を提案する。
提案手法は局所線形化に基づいており,ReLU非線型性に対する全変動距離の近似値として最適であることを示す。
論文 参考訳(メタデータ) (2024-02-13T09:40:19Z) - Collapsed Inference for Bayesian Deep Learning [36.1725075097107]
本稿では,崩壊サンプルを用いたベイズモデル平均化を行う新しい崩壊予測手法を提案する。
崩壊したサンプルは、近似後部から引き出された数え切れないほど多くのモデルを表す。
提案手法は, スケーラビリティと精度のバランスをとる。
論文 参考訳(メタデータ) (2023-06-16T08:34:42Z) - Improved uncertainty quantification for neural networks with Bayesian
last layer [0.0]
不確実性定量化は機械学習において重要な課題である。
本稿では,BLL を用いた NN の対数乗算可能性の再構成を行い,バックプロパゲーションを用いた効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2023-02-21T20:23:56Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Calibration and Uncertainty Quantification of Bayesian Convolutional
Neural Networks for Geophysical Applications [0.0]
このような地下モデルによる予測の不確実性は、キャリブレーションされた確率と関連する不確かさを予測に組み込むのが一般的である。
一般的なディープラーニングベースのモデルは、しばしば誤解され、決定論的性質のため、予測の不確実性を解釈する手段がないことが示されている。
ベイズ形式論における畳み込みニューラルネットワークに基づく確率モデルを得るための3つの異なるアプローチを比較した。
論文 参考訳(メタデータ) (2021-05-25T17:54:23Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Towards Trustworthy Predictions from Deep Neural Networks with Fast
Adversarial Calibration [2.8935588665357077]
本稿では,ドメインシフト後に得られたサンプルに対して,信頼度の高い信頼度を得るための効率的かつ汎用的なモデリング手法を提案する。
本稿では,エントロピー増大損失項と逆キャリブレーション損失項を組み合わせた新しいトレーニング戦略を導入し,この結果が適切に調整され,技術的に信頼できる予測となることを示す。
論文 参考訳(メタデータ) (2020-12-20T13:39:29Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。