論文の概要: Looking at the posterior: on the origin of uncertainty in neural-network
classification
- arxiv url: http://arxiv.org/abs/2211.14605v1
- Date: Sat, 26 Nov 2022 16:13:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 14:53:27.720805
- Title: Looking at the posterior: on the origin of uncertainty in neural-network
classification
- Title(参考訳): 神経ネットワーク分類における不確実性の起源について
- Authors: H. Linander, O. Balabanov, H. Yang, B. Mehlig
- Abstract要約: モデルパラメータとネットワーク出力の後方分布を用いて,ニューラルネットワークの予測における不確実性を定量化する。
我々は、不確実性の起源は各ニューラルネットワークの主観的であると結論づける。
我々はモンテカルロ・ドロップアウトとディープアンサンブルの2つの一般的な後部近似法を用いて,完全接続型,畳み込み型,注目型ニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian inference can quantify uncertainty in the predictions of neural
networks using posterior distributions for model parameters and network output.
By looking at these posterior distributions, one can separate the origin of
uncertainty into aleatoric and epistemic. We use the joint distribution of
predictive uncertainty and epistemic uncertainty to quantify how this
interpretation of uncertainty depends upon model architecture, dataset
complexity, and data distributional shifts in image classification tasks. We
conclude that the origin of uncertainty is subjective to each neural network
and that the quantification of the induced uncertainty from data distributional
shifts depends on the complexity of the underlying dataset. Furthermore, we
show that the joint distribution of predictive and epistemic uncertainty can be
used to identify data domains where the model is most accurate. To arrive at
these results, we use two common posterior approximation methods, Monte-Carlo
dropout and deep ensembles, for fully-connected, convolutional and
attention-based neural networks.
- Abstract(参考訳): ベイズ推定はモデルパラメータとネットワーク出力の後方分布を用いてニューラルネットワークの予測の不確かさを定量化することができる。
これらの後方分布を見ることにより、不確実性の起源をアレオテリックとエピステマティックに分けることができる。
予測不確かさと認識不確かさの合同分布を用いて、この不確かさの解釈が、画像分類タスクにおけるモデルアーキテクチャ、データセットの複雑さ、データ分散シフトに依存するかを定量化する。
結論として,不確実性の起源は各ニューラルネットワークの主観的であり,データ分布シフトによる不確実性の定量化は,基礎となるデータセットの複雑性に依存する。
さらに,予測的不確実性と認識的不確実性の組み合わせ分布をモデルが最も正確であるデータ領域の同定に利用できることを示す。
これらの結果に到達するために,モンテカルロ・ドロップアウト法とディープアンサンブル法という2つの近似手法を用いて,完全連結,畳み込み,注意に基づくニューラルネットワークを構築した。
関連論文リスト
- Uncertainty Decomposition and Error Margin Detection of Homodyned-K Distribution in Quantitative Ultrasound [1.912429179274357]
定量的超音波(QUS)における均質K分布(HK分布)パラメータ推定をベイズニューラルネットワーク(BNN)を用いて最近検討した。
BNNは、精度と精度を損なうことなく、スペックル統計に基づくQUSの計算時間を著しく短縮することが示されている。
論文 参考訳(メタデータ) (2024-09-17T22:16:49Z) - Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Integrating Uncertainty into Neural Network-based Speech Enhancement [27.868722093985006]
時間周波数領域における監視されたマスキングアプローチは、ディープニューラルネットワークを使用して乗法マスクを推定し、クリーンな音声を抽出することを目的としている。
これにより、信頼性の保証や尺度を使わずに、各入力に対する単一の見積もりが導かれる。
クリーン音声推定における不確実性モデリングの利点について検討する。
論文 参考訳(メタデータ) (2023-05-15T15:55:12Z) - Neural State-Space Models: Empirical Evaluation of Uncertainty
Quantification [0.0]
本稿では,ニューラル状態空間モデルを用いたシステム同定のための不確実性定量化に関する予備的結果を示す。
ベイズ確率的設定で学習問題をフレーム化し、ニューラルネットワークの重みと出力の後方分布を求める。
後部に基づいて,出力の信頼区間を構築し,潜在的に危険なアウト・オブ・ディストリビューション体制下でモデルの使用を効果的に診断できるサプライズ指標を定義する。
論文 参考訳(メタデータ) (2023-04-13T08:57:33Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。