論文の概要: Evidential Deep Learning: Enhancing Predictive Uncertainty Estimation
for Earth System Science Applications
- arxiv url: http://arxiv.org/abs/2309.13207v1
- Date: Fri, 22 Sep 2023 23:04:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 21:33:39.823665
- Title: Evidential Deep Learning: Enhancing Predictive Uncertainty Estimation
for Earth System Science Applications
- Title(参考訳): Evidential Deep Learning:地球系科学応用のための予測不確実性推定の強化
- Authors: John S. Schreck, David John Gagne II, Charlie Becker, William E.
Chapman, Kim Elmore, Gabrielle Gantos, Eliot Kim, Dhamma Kimpara, Thomas
Martin, Maria J. Molina, Vanessa M. Pryzbylo, Jacob Radford, Belen Saavedra,
Justin Willson, Christopher Wirz
- Abstract要約: エビデンシャル・ディープ・ラーニング(Evidential Deep Learning)は、パラメトリック・ディープ・ラーニングを高次分布に拡張する手法である。
本研究では,明らかなニューラルネットワークから得られる不確実性とアンサンブルから得られる不確実性を比較する。
本研究では,従来の手法に匹敵する予測精度を実現するとともに,両方の不確実性源をしっかりと定量化しながら,明らかな深層学習モデルを示す。
- 参考スコア(独自算出の注目度): 0.20288584947488558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robust quantification of predictive uncertainty is critical for understanding
factors that drive weather and climate outcomes. Ensembles provide predictive
uncertainty estimates and can be decomposed physically, but both physics and
machine learning ensembles are computationally expensive. Parametric deep
learning can estimate uncertainty with one model by predicting the parameters
of a probability distribution but do not account for epistemic uncertainty..
Evidential deep learning, a technique that extends parametric deep learning to
higher-order distributions, can account for both aleatoric and epistemic
uncertainty with one model. This study compares the uncertainty derived from
evidential neural networks to those obtained from ensembles. Through
applications of classification of winter precipitation type and regression of
surface layer fluxes, we show evidential deep learning models attaining
predictive accuracy rivaling standard methods, while robustly quantifying both
sources of uncertainty. We evaluate the uncertainty in terms of how well the
predictions are calibrated and how well the uncertainty correlates with
prediction error. Analyses of uncertainty in the context of the inputs reveal
sensitivities to underlying meteorological processes, facilitating
interpretation of the models. The conceptual simplicity, interpretability, and
computational efficiency of evidential neural networks make them highly
extensible, offering a promising approach for reliable and practical
uncertainty quantification in Earth system science modeling. In order to
encourage broader adoption of evidential deep learning in Earth System Science,
we have developed a new Python package, MILES-GUESS
(https://github.com/ai2es/miles-guess), that enables users to train and
evaluate both evidential and ensemble deep learning.
- Abstract(参考訳): 予測の不確かさのロバストな定量化は、気象と気候の結果を促進する要因を理解する上で重要である。
アンサンブルは予測の不確実性の推定を提供し、物理的に分解することができるが、物理と機械学習のアンサンブルは計算的に高価である。
パラメトリック深層学習は、確率分布のパラメータを予測することによって、一つのモデルで不確かさを推定できるが、認識的不確実性は考慮しない。
.
パラメトリック深層学習を高次分布に拡張する実証的深層学習は、1つのモデルで有意な不確かさと認識的不確実性の両方を考慮できる。
本研究は,ニューラルネットワークから得られる不確かさとアンサンブルから得られる不確かさを比較した。
冬期降水形態の分類と表層フラックスの回帰の応用を通して, 予測精度が標準手法に匹敵することを示すとともに, 両方の不確実性源をしっかりと定量化しながら, 明らかな深層学習モデルを示す。
我々は,予測の校正精度と不確実性が予測誤差とどの程度相関するかで不確実性を評価する。
入力の文脈における不確実性の分析は、基礎となる気象過程に対する感受性を示し、モデルの解釈を容易にする。
実証的ニューラルネットワークの概念的単純性、解釈性、計算効率は、高度に拡張可能であり、地球系科学モデリングにおける信頼性と実用的な不確かさの定量化に有望なアプローチを提供する。
Earth System Science における顕在的深層学習の広範な採用を促進するため,我々は新しいPythonパッケージ MILES-GUESS (https://github.com/ai2es/miles-guess) を開発した。
関連論文リスト
- Deep Modeling of Non-Gaussian Aleatoric Uncertainty [4.969887562291159]
ディープラーニングは、ロボット推定システムにおけるアレタリック不確実性を正確にモデル化する、有望な新しい方法を提供する。
本研究では,条件付き確率密度モデリングのための3つの基礎的深層学習手法を定式化し,評価する。
以上の結果から,これらの深層学習手法は複雑な不確実性パターンを正確に把握し,評価システムの信頼性と堅牢性を向上させる可能性を強調した。
論文 参考訳(メタデータ) (2024-05-30T22:13:17Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Neural State-Space Models: Empirical Evaluation of Uncertainty
Quantification [0.0]
本稿では,ニューラル状態空間モデルを用いたシステム同定のための不確実性定量化に関する予備的結果を示す。
ベイズ確率的設定で学習問題をフレーム化し、ニューラルネットワークの重みと出力の後方分布を求める。
後部に基づいて,出力の信頼区間を構築し,潜在的に危険なアウト・オブ・ディストリビューション体制下でモデルの使用を効果的に診断できるサプライズ指標を定義する。
論文 参考訳(メタデータ) (2023-04-13T08:57:33Z) - Fast Uncertainty Estimates in Deep Learning Interatomic Potentials [0.0]
本研究では,単一ニューラルネットワークを用いて,アンサンブルを必要とせずに予測不確実性を推定する手法を提案する。
本研究では,不確実性の推定値の品質が深層アンサンブルから得られた値と一致することを示す。
論文 参考訳(メタデータ) (2022-11-17T20:13:39Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z) - Deep Bayesian Gaussian Processes for Uncertainty Estimation in
Electronic Health Records [30.65770563934045]
我々はディープ・ベイズ学習フレームワークの特徴とディープ・カーネル・ラーニングを融合させ、より包括的な不確実性推定に両手法の強みを活用する。
我々は,不均衡なデータセットにおけるマイノリティクラスにおいて,過度に信頼された予測を行うことに対して,我々の手法はより感受性が低いことを示す。
論文 参考訳(メタデータ) (2020-03-23T10:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。