論文の概要: DeepUQ: Assessing the Aleatoric Uncertainties from two Deep Learning Methods
- arxiv url: http://arxiv.org/abs/2411.08587v1
- Date: Wed, 13 Nov 2024 13:11:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:09:15.062116
- Title: DeepUQ: Assessing the Aleatoric Uncertainties from two Deep Learning Methods
- Title(参考訳): DeepUQ: ディープラーニングの2つの方法によるアレータリックな不確実性の評価
- Authors: Rebecca Nevin, Aleksandra Ćiprijanović, Brian D. Nord,
- Abstract要約: 我々は,2つのUQ手法,Deep Ensembles (DE) とDeep Evidential Regression (DER) で測定されたアレタリック不確かさを系統的に比較した。
本手法は,0次元 (0D) と2次元 (2D) の両方のデータに着目し,UQ法が異なるデータ次元に対してどのように機能するかを検討する。
予測された不確実性は、2次元入力不確実性実験におけるUQ法と高雑音レベルの両方において最も正確である。
- 参考スコア(独自算出の注目度): 44.99833362998488
- License:
- Abstract: Assessing the quality of aleatoric uncertainty estimates from uncertainty quantification (UQ) deep learning methods is important in scientific contexts, where uncertainty is physically meaningful and important to characterize and interpret exactly. We systematically compare aleatoric uncertainty measured by two UQ techniques, Deep Ensembles (DE) and Deep Evidential Regression (DER). Our method focuses on both zero-dimensional (0D) and two-dimensional (2D) data, to explore how the UQ methods function for different data dimensionalities. We investigate uncertainty injected on the input and output variables and include a method to propagate uncertainty in the case of input uncertainty so that we can compare the predicted aleatoric uncertainty to the known values. We experiment with three levels of noise. The aleatoric uncertainty predicted across all models and experiments scales with the injected noise level. However, the predicted uncertainty is miscalibrated to $\rm{std}(\sigma_{\rm al})$ with the true uncertainty for half of the DE experiments and almost all of the DER experiments. The predicted uncertainty is the least accurate for both UQ methods for the 2D input uncertainty experiment and the high-noise level. While these results do not apply to more complex data, they highlight that further research on post-facto calibration for these methods would be beneficial, particularly for high-noise and high-dimensional settings.
- Abstract(参考訳): 不確実性定量化(UQ)深層学習法から推定されるアレタリック不確実性の品質を評価することは、科学的文脈において重要であり、不確実性は物理的に意味があり、正確に特徴づけ、解釈するために重要である。
我々は,2つのUQ手法,Deep Ensembles (DE) とDeep Evidential Regression (DER) で測定されたアレタリック不確かさを系統的に比較した。
本手法は,0次元 (0D) と2次元 (2D) の両方のデータに着目し,UQ法が異なるデータ次元に対してどのように機能するかを検討する。
入力および出力変数に注入された不確実性について検討し、入力不確かさの場合に不確かさを伝播させ、予測されたアレタリック不確かさを既知の値と比較できるようにする方法を含む。
我々は騒音を3段階実験する。
全てのモデルや実験で予測されるアレタリックな不確実性は、注入されたノイズレベルとともにスケールする。
しかし、予測された不確実性は$\rm{std}(\sigma_{\rm al})$と誤解される。
予測された不確実性は、2次元入力不確実性実験におけるUQ法と高雑音レベルの両方において最も正確である。
これらの結果は、より複雑なデータには適用されないが、特に高ノイズおよび高次元設定において、これらの手法のポストファクト校正に関するさらなる研究が有用であることを示している。
関連論文リスト
- How disentangled are your classification uncertainties? [6.144680854063938]
機械学習における不確実性定量化は、予測における不確実性の原因を予測するために進んでいる。
本研究は,失語症およびてんかんの不確かさの解消を評価するための一連の実験を提案する。
論文 参考訳(メタデータ) (2024-08-22T07:42:43Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Calibrated Uncertainty Quantification for Operator Learning via
Conformal Prediction [95.75771195913046]
本稿では, リスク制御型量子ニューラル演算子, 分布のない有限サンプル機能キャリブレーション等式予測法を提案する。
関数領域上の点の期待値として定義されるカバレッジ率に関する理論的キャリブレーションを保証する。
2次元ダーシー流と3次元自動車表面圧力予測タスクに関する実験結果から,我々の理論的結果が検証された。
論文 参考訳(メタデータ) (2024-02-02T23:43:28Z) - One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - A Deeper Look into Aleatoric and Epistemic Uncertainty Disentanglement [7.6146285961466]
本稿では,不整合不整合を生成する手法を一般化し,不整合不整合の定量化を行う。
本研究は,学習失語症とてんかん不確実性との間に相互作用があることを示し,失語症不確実性に対する仮定に違反していることを示す。
我々の定式化と結果は、実践者や研究者が不確実性を選択するのに役立ち、不確実性の利用を拡大するのに役立つと期待する。
論文 参考訳(メタデータ) (2022-04-20T08:41:37Z) - How certain are your uncertainties? [0.3655021726150368]
ディープラーニング手法の出力の不確実性の尺度は、いくつかの点で有用である。
本研究では、これらの不確実性の測定の安定性について、大きさと空間パターンの両方の観点から検討する。
論文 参考訳(メタデータ) (2022-03-01T05:25:02Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z) - Deeply Uncertain: Comparing Methods of Uncertainty Quantification in
Deep Learning Algorithms [2.635832975589208]
最も一般的な不確実性定量化手法の3つは、標準的な解析誤差伝播と比較される。
この結果から,これらのUQ手法を用いた場合の落とし穴が浮かび上がっている。
論文 参考訳(メタデータ) (2020-04-22T17:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。