論文の概要: Quantifying Uncertainty in Deep Learning Classification with Noise in
Discrete Inputs for Risk-Based Decision Making
- arxiv url: http://arxiv.org/abs/2310.06105v1
- Date: Mon, 9 Oct 2023 19:26:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 23:29:36.443103
- Title: Quantifying Uncertainty in Deep Learning Classification with Noise in
Discrete Inputs for Risk-Based Decision Making
- Title(参考訳): リスクベース意思決定のための離散入力における雑音を伴う深層学習分類の不確かさの定量化
- Authors: Maryam Kheirandish, Shengfan Zhang, Donald G. Catanzaro, Valeriu Crudu
- Abstract要約: 本稿では,Deep Neural Network(DNN)モデルの予測不確実性を定量化する数学的枠組みを提案する。
予測の不確実性は、既知の有限離散分布に従う予測器の誤差から生じる。
提案フレームワークは,予測器の離散誤差が存在する場合のアプリケーションにおけるリスクベースの意思決定を支援する。
- 参考スコア(独自算出の注目度): 1.529943343419486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of Deep Neural Network (DNN) models in risk-based decision-making has
attracted extensive attention with broad applications in medical, finance,
manufacturing, and quality control. To mitigate prediction-related risks in
decision making, prediction confidence or uncertainty should be assessed
alongside the overall performance of algorithms. Recent studies on Bayesian
deep learning helps quantify prediction uncertainty arises from input noises
and model parameters. However, the normality assumption of input noise in these
models limits their applicability to problems involving categorical and
discrete feature variables in tabular datasets. In this paper, we propose a
mathematical framework to quantify prediction uncertainty for DNN models. The
prediction uncertainty arises from errors in predictors that follow some known
finite discrete distribution. We then conducted a case study using the
framework to predict treatment outcome for tuberculosis patients during their
course of treatment. The results demonstrate under a certain level of risk, we
can identify risk-sensitive cases, which are prone to be misclassified due to
error in predictors. Comparing to the Monte Carlo dropout method, our proposed
framework is more aware of misclassification cases. Our proposed framework for
uncertainty quantification in deep learning can support risk-based decision
making in applications when discrete errors in predictors are present.
- Abstract(参考訳): リスクベースの意思決定におけるDeep Neural Network(DNN)モデルの使用は、医療、金融、製造、品質管理の幅広い応用で広く注目を集めている。
意思決定における予測関連リスクを軽減するためには、アルゴリズム全体のパフォーマンスとともに予測信頼度や不確実性を評価する必要がある。
ベイズ深層学習の最近の研究は、入力ノイズやモデルパラメータから発生する予測の不確かさの定量化に役立つ。
しかし、これらのモデルにおける入力ノイズの正規性仮定は、表付きデータセットにおける分類的および離散的特徴変数を含む問題に適用性を制限する。
本稿では,DNNモデルの予測不確実性を定量化する数学的枠組みを提案する。
予測の不確実性は、既知の有限離散分布に従う予測器の誤差から生じる。
治療経過中の結核患者の治療成績を予測するために,本フレームワークを用いた症例スタディを行った。
その結果,特定のリスクレベルにおいて,予測者の誤りにより誤分類されやすいリスクに敏感な事例を識別できることが分かった。
モンテカルロのドロップアウト法と比較して,提案手法は誤分類事例をより意識している。
深層学習における不確実性定量化の枠組みは,予測者の離散的誤りが存在する場合のリスクベースの意思決定を支援する。
関連論文リスト
- One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Conformalized Multimodal Uncertainty Regression and Reasoning [0.9205582989348333]
本稿では,マルチモーダル(不連続)不確実性境界を予測できる軽量不確実性推定器を提案する。
本稿では,空飛ぶ領域対称性などの環境特性が多モード不確実性をもたらす視覚計測(VO)への応用について論じる。
論文 参考訳(メタデータ) (2023-09-20T02:40:59Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Quantifying Deep Learning Model Uncertainty in Conformal Prediction [1.4685355149711297]
コンフォーマル予測(Conformal Prediction)は、モデルの不確実性を表現するための有望なフレームワークである。
本稿では,最先端CP手法とその理論的基礎について考察する。
論文 参考訳(メタデータ) (2023-06-01T16:37:50Z) - Neural State-Space Models: Empirical Evaluation of Uncertainty
Quantification [0.0]
本稿では,ニューラル状態空間モデルを用いたシステム同定のための不確実性定量化に関する予備的結果を示す。
ベイズ確率的設定で学習問題をフレーム化し、ニューラルネットワークの重みと出力の後方分布を求める。
後部に基づいて,出力の信頼区間を構築し,潜在的に危険なアウト・オブ・ディストリビューション体制下でモデルの使用を効果的に診断できるサプライズ指標を定義する。
論文 参考訳(メタデータ) (2023-04-13T08:57:33Z) - Improving Trustworthiness of AI Disease Severity Rating in Medical
Imaging with Ordinal Conformal Prediction Sets [0.7734726150561088]
統計的に厳密な不確実性定量化の欠如は、AI結果の信頼を損なう重要な要因である。
分布自由不確実性定量化の最近の進歩は、これらの問題に対する実用的な解決策である。
本稿では, 正しい狭窄の重症度を含むことが保証される順序予測セットを形成する手法を実証する。
論文 参考訳(メタデータ) (2022-07-05T18:01:20Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。