論文の概要: BayesNetCNN: incorporating uncertainty in neural networks for
image-based classification tasks
- arxiv url: http://arxiv.org/abs/2209.13096v1
- Date: Tue, 27 Sep 2022 01:07:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 16:19:18.003604
- Title: BayesNetCNN: incorporating uncertainty in neural networks for
image-based classification tasks
- Title(参考訳): BayesNetCNN:画像に基づく分類タスクのためのニューラルネットワークの不確実性を活用する
- Authors: Matteo Ferrante, Tommaso Boccato, Nicola Toschi
- Abstract要約: 本稿では,標準的なニューラルネットワークをベイズニューラルネットワークに変換する手法を提案する。
本研究では,各前方パスにおいて,元のものと類似した異なるネットワークをサンプリングすることにより,予測のばらつきを推定する。
我々は、アルツハイマー病患者の脳画像の大きなコホートを用いて、我々のモデルを検証した。
- 参考スコア(独自算出の注目度): 0.29005223064604074
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The willingness to trust predictions formulated by automatic algorithms is
key in a vast number of domains. However, a vast number of deep architectures
are only able to formulate predictions without an associated uncertainty. In
this paper, we propose a method to convert a standard neural network into a
Bayesian neural network and estimate the variability of predictions by sampling
different networks similar to the original one at each forward pass. We couple
our methods with a tunable rejection-based approach that employs only the
fraction of the dataset that the model is able to classify with an uncertainty
below a user-set threshold. We test our model in a large cohort of brain images
from Alzheimer's Disease patients, where we tackle discrimination of patients
from healthy controls based on morphometric images only. We demonstrate how
combining the estimated uncertainty with a rejection-based approach increases
classification accuracy from 0.86 to 0.95 while retaining 75% of the test set.
In addition, the model can select cases to be recommended for manual evaluation
based on excessive uncertainty. We believe that being able to estimate the
uncertainty of a prediction, along with tools that can modulate the behavior of
the network to a degree of confidence that the user is informed about (and
comfortable with) can represent a crucial step in the direction of user
compliance and easier integration of deep learning tools into everyday tasks
currently performed by human operators.
- Abstract(参考訳): 自動アルゴリズムによって定式化された予測を信頼する意志は、膨大な数のドメインにおいて鍵となる。
しかし、膨大な数の深いアーキテクチャは、関連する不確実性なしに予測を定式化できるのみである。
本稿では,標準ニューラルネットワークをベイズニューラルネットワークに変換する手法を提案し,各前方パスで元のニューラルネットワークと同様の異なるネットワークをサンプリングすることにより,予測のばらつきを推定する。
我々は,モデルがユーザ設定閾値以下で不確実性のある分類が可能なデータセットのごく一部しか使用できない,可変的な拒絶ベースアプローチで手法を組み合わせる。
アルツハイマー病患者から得られた脳画像のコホートを用いて, 形態計測画像のみに基づいて, 健康なコントロールから患者を識別する実験を行った。
評価の不確実性と拒絶に基づくアプローチを組み合わせることで, 75%の精度を維持しつつ, 分類精度を0.86から0.95に向上させることを示す。
さらに,過度な不確実性に基づいて,手作業による評価を推奨する事例を選択することができる。
予測の不確実性を推定できると同時に,ネットワークの動作を,ユーザが通知された(かつ快適に)ある程度の信頼度に調整できるツールが,ユーザコンプライアンスの方向性における重要なステップであり,人間の操作者が現在行っている日常的なタスクへのディープラーニングツールの統合が容易である,と我々は信じている。
関連論文リスト
- Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Confidence estimation of classification based on the distribution of the
neural network output layer [4.529188601556233]
現実の世界における予測モデルの適用を防ぐための最も一般的な問題の1つは一般化の欠如である。
ニューラルネットワーク分類モデルにより生成された特定の予測の不確かさを推定する新しい手法を提案する。
提案手法は,この予測に対応するロジット値の分布に基づいて,特定の予測の信頼性を推定する。
論文 参考訳(メタデータ) (2022-10-14T12:32:50Z) - Bayesian Neural Network Versus Ex-Post Calibration For Prediction
Uncertainty [0.2343856409260935]
ニューラルネットワークからの確率的予測は、分類中の予測の不確実性の原因となる。
実際には、ほとんどのデータセットは非確率的ニューラルネットワークでトレーニングされています。
キャリブレーションアプローチのもっともらしい代替手段は、予測分布を直接モデル化するベイズニューラルネットワークを使用することである。
論文 参考訳(メタデータ) (2022-09-29T07:22:19Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Quantifying Predictive Uncertainty in Medical Image Analysis with Deep
Kernel Learning [14.03923026690186]
本研究では,予測の不確かさを推定できる不確実性を考慮した深層カーネル学習モデルを提案する。
ほとんどの場合、提案したモデルは一般的なアーキテクチャよりも優れた性能を示している。
私たちのモデルは、挑戦的で議論の余地のあるテストサンプルを検出するためにも使用できます。
論文 参考訳(メタデータ) (2021-06-01T17:09:47Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Revisiting One-vs-All Classifiers for Predictive Uncertainty and
Out-of-Distribution Detection in Neural Networks [22.34227625637843]
識別型分類器における確率のパラメトリゼーションが不確実性推定に与える影響について検討する。
画像分類タスクのキャリブレーションを改善するために, 1-vs-all の定式化が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-10T01:55:02Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。