論文の概要: Quantifying Deep Learning Model Uncertainty in Conformal Prediction
- arxiv url: http://arxiv.org/abs/2306.00876v1
- Date: Thu, 1 Jun 2023 16:37:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 14:38:39.487724
- Title: Quantifying Deep Learning Model Uncertainty in Conformal Prediction
- Title(参考訳): 等角予測における深層学習モデルの不確かさの定量化
- Authors: Hamed Karimi, Reza Samavi
- Abstract要約: コンフォーマル予測(Conformal Prediction)は、モデルの不確実性を表現するための有望なフレームワークである。
本稿では,最先端CP手法とその理論的基礎について考察する。
- 参考スコア(独自算出の注目度): 3.6550217261503675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Precise estimation of predictive uncertainty in deep neural networks is a
critical requirement for reliable decision-making in machine learning and
statistical modeling, particularly in the context of medical AI. Conformal
Prediction (CP) has emerged as a promising framework for representing the model
uncertainty by providing well-calibrated confidence levels for individual
predictions. However, the quantification of model uncertainty in conformal
prediction remains an active research area, yet to be fully addressed. In this
paper, we explore state-of-the-art CP methodologies and their theoretical
foundations. We propose a probabilistic approach in quantifying the model
uncertainty derived from the produced prediction sets in conformal prediction
and provide certified boundaries for the computed uncertainty. By doing so, we
allow model uncertainty measured by CP to be compared by other uncertainty
quantification methods such as Bayesian (e.g., MC-Dropout and DeepEnsemble) and
Evidential approaches.
- Abstract(参考訳): ディープニューラルネットワークにおける予測の不確かさの正確な推定は、機械学習や統計モデリング、特に医療aiの文脈において、信頼できる意思決定のための重要な要件である。
共形予測(cp)は、個々の予測に対して十分に調整された信頼レベルを提供することで、モデルの不確実性を表現するための有望な枠組みとして現れた。
しかし、共形予測におけるモデル不確実性の定量化は依然として活発な研究領域であり、完全には解決されていない。
本稿では,最先端CP手法とその理論的基礎について考察する。
本研究では,生成された予測集合から得られたモデル不確かさを共形予測で定量化する確率論的アプローチを提案し,計算不確実性に対する認定境界を提供する。
これにより、CPによって測定されたモデルの不確実性は、ベイジアン(例えば、MC-DropoutやDeepEnsemble)やエビデンシャルアプローチといった他の不確実性定量化手法と比較することができる。
関連論文リスト
- Introducing an Improved Information-Theoretic Measure of Predictive
Uncertainty [6.3398383724486544]
予測の不確実性は、ベイズ平均(BMA)予測分布のエントロピーによってよく測定される。
これらの制限を克服するために理論的に根ざした尺度を導入する。
提案手法は, 制御された合成タスクにおいて, より合理的に振る舞う。
論文 参考訳(メタデータ) (2023-11-14T16:55:12Z) - Quantifying Uncertainty in Deep Learning Classification with Noise in
Discrete Inputs for Risk-Based Decision Making [1.529943343419486]
本稿では,Deep Neural Network(DNN)モデルの予測不確実性を定量化する数学的枠組みを提案する。
予測の不確実性は、既知の有限離散分布に従う予測器の誤差から生じる。
提案フレームワークは,予測器の離散誤差が存在する場合のアプリケーションにおけるリスクベースの意思決定を支援する。
論文 参考訳(メタデータ) (2023-10-09T19:26:24Z) - Conformalized Multimodal Uncertainty Regression and Reasoning [0.9205582989348333]
本稿では,マルチモーダル(不連続)不確実性境界を予測できる軽量不確実性推定器を提案する。
本稿では,空飛ぶ領域対称性などの環境特性が多モード不確実性をもたらす視覚計測(VO)への応用について論じる。
論文 参考訳(メタデータ) (2023-09-20T02:40:59Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Model-free generalized fiducial inference [0.0]
本稿では,不正確な確率的予測推定のためのモデルフリー統計フレームワークの提案と開発を行う。
このフレームワークは、タイプ1エラーの有限サンプル制御を提供する予測セットの形式での不確実性定量化を促進する。
モデルフリー不正確なフレームワークに対する正確な確率近似の理論的および経験的特性について考察する。
論文 参考訳(メタデータ) (2023-07-24T01:58:48Z) - The Implicit Delta Method [61.36121543728134]
本稿では,不確実性のトレーニング損失を無限に正規化することで機能する,暗黙のデルタ法を提案する。
有限差分により無限小変化が近似された場合でも, 正則化による評価の変化は評価推定器の分散に一定であることを示す。
論文 参考訳(メタデータ) (2022-11-11T19:34:17Z) - Uncertainty estimation of pedestrian future trajectory using Bayesian
approximation [137.00426219455116]
動的トラフィックシナリオでは、決定論的予測に基づく計画は信頼できない。
著者らは、決定論的アプローチが捉えられない近似を用いて予測中の不確実性を定量化する。
将来の状態の不確実性に対する降雨重量と長期予測の影響について検討した。
論文 参考訳(メタデータ) (2022-05-04T04:23:38Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。