論文の概要: Bayesian Deep Learning for Convective Initiation Nowcasting Uncertainty Estimation
- arxiv url: http://arxiv.org/abs/2507.16219v1
- Date: Tue, 22 Jul 2025 04:29:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.961772
- Title: Bayesian Deep Learning for Convective Initiation Nowcasting Uncertainty Estimation
- Title(参考訳): 不確実性推定による対流開始のためのベイズ深層学習
- Authors: Da Fan, David John Gagne II, Steven J. Greybush, Eugene E. Clothiaux, John S. Schreck, Chaopeng Shen,
- Abstract要約: 本研究では,最近提案された5つのベイズ深層学習手法の確率と不確実性予測について検討した。
不確実性は, 確率的予測の正当性, 不確実性が大小の誤差でどの程度分離されたかによって評価された。
- 参考スコア(独自算出の注目度): 0.16492989697868887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study evaluated the probability and uncertainty forecasts of five recently proposed Bayesian deep learning methods relative to a deterministic residual neural network (ResNet) baseline for 0-1 h convective initiation (CI) nowcasting using GOES-16 satellite infrared observations. Uncertainty was assessed by how well probabilistic forecasts were calibrated and how well uncertainty separated forecasts with large and small errors. Most of the Bayesian deep learning methods produced probabilistic forecasts that outperformed the deterministic ResNet, with one, the initial-weights ensemble + Monte Carlo (MC) dropout, an ensemble of deterministic ResNets with different initial weights to start training and dropout activated during inference, producing the most skillful and well-calibrated forecasts. The initial-weights ensemble + MC dropout benefited from generating multiple solutions that more thoroughly sampled the hypothesis space. The Bayesian ResNet ensemble was the only one that performed worse than the deterministic ResNet at longer lead times, likely due to the challenge of optimizing a larger number of parameters. To address this issue, the Bayesian-MOPED (MOdel Priors with Empirical Bayes using Deep neural network) ResNet ensemble was adopted, and it enhanced forecast skill by constraining the hypothesis search near the deterministic ResNet hypothesis. All Bayesian methods demonstrated well-calibrated uncertainty and effectively separated cases with large and small errors. In case studies, the initial-weights ensemble + MC dropout demonstrated better forecast skill than the Bayesian-MOPED ensemble and the deterministic ResNet on selected CI events in clear-sky regions. However, the initial-weights ensemble + MC dropout exhibited poorer generalization in clear-sky and anvil cloud regions without CI occurrence compared to the deterministic ResNet and Bayesian-MOPED ensemble.
- Abstract(参考訳): 本研究は,GOES-16衛星赤外観測による0-1h対流開始(CI)に対する決定論的残留ニューラルネットワーク(ResNet)ベースラインと比較して,最近提案された5つのベイズ深層学習手法の確率と不確実性について評価した。
不確実性は、どの程度確率的予測が校正されたか、また、大小の誤差で予測が分離されたかによって評価された。
ベイズディープラーニングの手法の多くは、決定論的ResNetよりも優れた確率的予測を生み出した。一方は、初期重み付けのアンサンブル+モンテカルロ(MC)ドロップアウト、および推論中にトレーニングとドロップアウトを開始するための異なる初期重み付き決定論的ResNetのアンサンブルであり、最も巧妙で校正された予測を生み出した。
初期重みのアンサンブル + MC のドロップアウトは、仮説空間をより徹底的にサンプリングする複数の解を生成する利点があった。
ベイジアン・レスネットのアンサンブルは、より長いリードタイムで決定論的 ResNet よりも悪い結果を出した唯一のものである。
この問題を解決するために、ResNetアンサンブルが採用され、決定論的ResNet仮説に近い仮説探索を制限することにより予測スキルが向上した。
すべてのベイズ的手法は、大小の誤りを伴って、よく校正された不確実性を示し、効果的に分離されたケースを示した。
ケーススタディでは,初期重み付けアンサンブル+MCドロップアウトはベイジアンMOPEDアンサンブルや,クリアスキー地域で選択されたCIイベントにおける決定論的ResNetよりも優れた予測スキルを示した。
しかし, 初期重みアンサンブル+MCドロップアウトは, 決定論的ResNetやBayesian-MOPEDアンサンブルと比較して, CI発生のない明暗雲と暗雲の領域での一般化が低かった。
関連論文リスト
- Understanding the Trade-offs in Accuracy and Uncertainty Quantification: Architecture and Inference Choices in Bayesian Neural Networks [0.276240219662896]
有望な理論的結果にもかかわらず、最もよく使われる後部近似の性質はしばしば疑問視される。
現代の深層モデルの次元は、識別可能性の欠如と相まって、マルコフ連鎖モンテカルロ(MCMC)は後部を完全に探索することができない。
変分推論は計算複雑性の改善による恩恵を受けるが、サンプリングベース推論のマルチモーダル保証は欠如している。
変分近似の積み重ねとアンサンブルにより、MCMCに匹敵する精度が大幅に低減された。
論文 参考訳(メタデータ) (2025-03-14T18:55:48Z) - Uncertainty Prediction Neural Network (UpNet): Embedding Artificial Neural Network in Bayesian Inversion Framework to Quantify the Uncertainty of Remote Sensing Retrieval [0.34952465649465553]
放射移動モデル(RTMs)の逆転は、大規模植生の生物物理パラメーターを取得するために最もよく用いられる手法である。
近年、ニューラルネットワーク(ANN)に基づく手法は、高い精度と計算効率のため、RTMの反転の主流となっている。
ベイズ反転理論の解釈が欠如していることから、検索の不確実性を定量化する上での課題に直面している。
論文 参考訳(メタデータ) (2024-11-07T09:27:42Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Fast Uncertainty Estimates in Deep Learning Interatomic Potentials [0.0]
本研究では,単一ニューラルネットワークを用いて,アンサンブルを必要とせずに予測不確実性を推定する手法を提案する。
本研究では,不確実性の推定値の品質が深層アンサンブルから得られた値と一致することを示す。
論文 参考訳(メタデータ) (2022-11-17T20:13:39Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Rapid Risk Minimization with Bayesian Models Through Deep Learning
Approximation [9.93116974480156]
本稿では,ベイズモデル (BM) とニューラルネットワーク (NN) を組み合わせて,予測を最小限のリスクで行う手法を提案する。
私たちのアプローチは、BMのデータ効率と解釈可能性とNNの速度を組み合わせます。
テストデータセットに無視できる損失がある標準手法よりも、リスク最小限の予測をはるかに高速に達成する。
論文 参考訳(メタデータ) (2021-03-29T15:08:25Z) - Probabilistic electric load forecasting through Bayesian Mixture Density
Networks [70.50488907591463]
確率的負荷予測(PLF)は、スマートエネルギーグリッドの効率的な管理に必要な拡張ツールチェーンの重要なコンポーネントです。
ベイジアン混合密度ネットワークを枠とした新しいPLFアプローチを提案する。
後方分布の信頼性と計算にスケーラブルな推定を行うため,平均場変動推定と深層アンサンブルを統合した。
論文 参考訳(メタデータ) (2020-12-23T16:21:34Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z) - Being Bayesian, Even Just a Bit, Fixes Overconfidence in ReLU Networks [65.24701908364383]
我々は、ReLUネットワーク上の不確実性に対する十分条件が「少しベイズ校正される」ことを示す。
さらに,これらの知見を,共通深部ReLUネットワークとLaplace近似を用いた各種標準実験により実証的に検証した。
論文 参考訳(メタデータ) (2020-02-24T08:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。