論文の概要: Evaluation of Machine Learning Techniques for Forecast Uncertainty
Quantification
- arxiv url: http://arxiv.org/abs/2111.14844v1
- Date: Mon, 29 Nov 2021 16:52:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 14:20:43.216167
- Title: Evaluation of Machine Learning Techniques for Forecast Uncertainty
Quantification
- Title(参考訳): 不確実性定量化予測のための機械学習手法の評価
- Authors: Maximiliano A. Sacco, Juan J. Ruiz, Manuel Pulido and Pierre Tandeo
- Abstract要約: アンサンブル予測は、これまでのところ、関連する予測を生成するための最も成功したアプローチであり、その不確実性を見積もっている。
アンサンブル予測の主な制限は、高い計算コストと異なる不確実性の源を捕捉し定量化することの難しさである。
本研究は,1つの決定論的予測のみを入力として,システムの修正状態と状態不確かさを予測するために訓練されたANNの性能を評価するための概念モデル実験である。
- 参考スコア(独自算出の注目度): 0.13999481573773068
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Producing an accurate weather forecast and a reliable quantification of its
uncertainty is an open scientific challenge. Ensemble forecasting is, so far,
the most successful approach to produce relevant forecasts along with an
estimation of their uncertainty. The main limitations of ensemble forecasting
are the high computational cost and the difficulty to capture and quantify
different sources of uncertainty, particularly those associated with model
errors. In this work proof-of-concept model experiments are conducted to
examine the performance of ANNs trained to predict a corrected state of the
system and the state uncertainty using only a single deterministic forecast as
input. We compare different training strategies: one based on a direct training
using the mean and spread of an ensemble forecast as target, the other ones
rely on an indirect training strategy using a deterministic forecast as target
in which the uncertainty is implicitly learned from the data. For the last
approach two alternative loss functions are proposed and evaluated, one based
on the data observation likelihood and the other one based on a local
estimation of the error. The performance of the networks is examined at
different lead times and in scenarios with and without model errors.
Experiments using the Lorenz'96 model show that the ANNs are able to emulate
some of the properties of ensemble forecasts like the filtering of the most
unpredictable modes and a state-dependent quantification of the forecast
uncertainty. Moreover, ANNs provide a reliable estimation of the forecast
uncertainty in the presence of model error.
- Abstract(参考訳): 正確な天気予報と、その不確かさの信頼できる定量化は、オープンな科学的課題である。
アンサンブル予測は、これまでのところ、その不確実性の推定とともに、関連する予測を生成するための最も成功したアプローチである。
アンサンブル予測の主な制限は、高い計算コストと、不確実性、特にモデルエラーに関連する様々なソースを捕捉し定量化することの難しさである。
本研究は,1つの決定論的予測のみを入力として,システムの修正状態と状態不確かさを予測するために訓練されたANNの性能を評価するための概念モデル実験である。
対象としてアンサンブル予測の平均と拡散を用いた直接訓練と,データから不確実性が暗黙的に学習されるターゲットとして決定論的予測を用いた間接訓練とを併用した訓練とを比較した。
最後のアプローチでは、データ観測可能性に基づく2つの代替損失関数と、誤差の局所的推定に基づく2つの損失関数が提案され、評価される。
ネットワークの性能は、モデルエラーの有無に関わらず、異なるリードタイムとシナリオで検証される。
Lorenz'96モデルを用いた実験により、ANNは最も予測不可能なモードのフィルタリングや予測の不確実性の状態依存定量化など、アンサンブル予測の特性の一部をエミュレートできることが示された。
さらに、annはモデル誤差の存在下で予測の不確かさの信頼性の高い推定を提供する。
関連論文リスト
- Error-Driven Uncertainty Aware Training [7.702016079410588]
Error-Driven Uncertainty Aware Trainingは、ニューラル分類器が不確実性を正確に推定する能力を高めることを目的としている。
EUATアプローチは、モデルのトレーニングフェーズ中に、トレーニング例が正しく予測されているか、あるいは正しく予測されているかによって、2つの損失関数を選択的に使用することによって機能する。
画像認識領域における多様なニューラルモデルとデータセットを用いてEUATを評価する。
論文 参考訳(メタデータ) (2024-05-02T11:48:14Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Toward Reliable Human Pose Forecasting with Uncertainty [51.628234388046195]
我々は、複数のモデルを含む人間のポーズ予測のためのオープンソースのライブラリを開発し、複数のデータセットをサポートする。
我々は、パフォーマンスを高め、より良い信頼をもたらすために、問題の2つの不確実性を考案する。
論文 参考訳(メタデータ) (2023-04-13T17:56:08Z) - Comparison of Uncertainty Quantification with Deep Learning in Time
Series Regression [7.6146285961466]
本稿では,気象時系列データと異なる不確実性推定手法を比較した。
その結果,各不確実性推定手法が予測タスクに与える影響が示された。
論文 参考訳(メタデータ) (2022-11-11T14:29:13Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Uncertainty estimation of pedestrian future trajectory using Bayesian
approximation [137.00426219455116]
動的トラフィックシナリオでは、決定論的予測に基づく計画は信頼できない。
著者らは、決定論的アプローチが捉えられない近似を用いて予測中の不確実性を定量化する。
将来の状態の不確実性に対する降雨重量と長期予測の影響について検討した。
論文 参考訳(メタデータ) (2022-05-04T04:23:38Z) - Probabilistic Deep Learning to Quantify Uncertainty in Air Quality
Forecasting [5.007231239800297]
この研究は、空気質予測の現実的な設定における不確実性定量化の最先端技術を適用した。
本稿では,経験的性能,信頼度推定の信頼性,実用性に基づいて,トレーニング確率モデルを記述し,予測の不確実性を評価する。
本実験は,データ駆動空気質予測の不確かさの定量化において,提案モデルが従来よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-12-05T17:01:18Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Learning Prediction Intervals for Model Performance [1.433758865948252]
モデル性能の予測間隔を計算する手法を提案する。
我々は,幅広いドリフト条件におけるアプローチを評価し,競合ベースラインよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2020-12-15T21:32:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。