論文の概要: Evaluation of Machine Learning Techniques for Forecast Uncertainty
Quantification
- arxiv url: http://arxiv.org/abs/2111.14844v1
- Date: Mon, 29 Nov 2021 16:52:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 14:20:43.216167
- Title: Evaluation of Machine Learning Techniques for Forecast Uncertainty
Quantification
- Title(参考訳): 不確実性定量化予測のための機械学習手法の評価
- Authors: Maximiliano A. Sacco, Juan J. Ruiz, Manuel Pulido and Pierre Tandeo
- Abstract要約: アンサンブル予測は、これまでのところ、関連する予測を生成するための最も成功したアプローチであり、その不確実性を見積もっている。
アンサンブル予測の主な制限は、高い計算コストと異なる不確実性の源を捕捉し定量化することの難しさである。
本研究は,1つの決定論的予測のみを入力として,システムの修正状態と状態不確かさを予測するために訓練されたANNの性能を評価するための概念モデル実験である。
- 参考スコア(独自算出の注目度): 0.13999481573773068
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Producing an accurate weather forecast and a reliable quantification of its
uncertainty is an open scientific challenge. Ensemble forecasting is, so far,
the most successful approach to produce relevant forecasts along with an
estimation of their uncertainty. The main limitations of ensemble forecasting
are the high computational cost and the difficulty to capture and quantify
different sources of uncertainty, particularly those associated with model
errors. In this work proof-of-concept model experiments are conducted to
examine the performance of ANNs trained to predict a corrected state of the
system and the state uncertainty using only a single deterministic forecast as
input. We compare different training strategies: one based on a direct training
using the mean and spread of an ensemble forecast as target, the other ones
rely on an indirect training strategy using a deterministic forecast as target
in which the uncertainty is implicitly learned from the data. For the last
approach two alternative loss functions are proposed and evaluated, one based
on the data observation likelihood and the other one based on a local
estimation of the error. The performance of the networks is examined at
different lead times and in scenarios with and without model errors.
Experiments using the Lorenz'96 model show that the ANNs are able to emulate
some of the properties of ensemble forecasts like the filtering of the most
unpredictable modes and a state-dependent quantification of the forecast
uncertainty. Moreover, ANNs provide a reliable estimation of the forecast
uncertainty in the presence of model error.
- Abstract(参考訳): 正確な天気予報と、その不確かさの信頼できる定量化は、オープンな科学的課題である。
アンサンブル予測は、これまでのところ、その不確実性の推定とともに、関連する予測を生成するための最も成功したアプローチである。
アンサンブル予測の主な制限は、高い計算コストと、不確実性、特にモデルエラーに関連する様々なソースを捕捉し定量化することの難しさである。
本研究は,1つの決定論的予測のみを入力として,システムの修正状態と状態不確かさを予測するために訓練されたANNの性能を評価するための概念モデル実験である。
対象としてアンサンブル予測の平均と拡散を用いた直接訓練と,データから不確実性が暗黙的に学習されるターゲットとして決定論的予測を用いた間接訓練とを併用した訓練とを比較した。
最後のアプローチでは、データ観測可能性に基づく2つの代替損失関数と、誤差の局所的推定に基づく2つの損失関数が提案され、評価される。
ネットワークの性能は、モデルエラーの有無に関わらず、異なるリードタイムとシナリオで検証される。
Lorenz'96モデルを用いた実験により、ANNは最も予測不可能なモードのフィルタリングや予測の不確実性の状態依存定量化など、アンサンブル予測の特性の一部をエミュレートできることが示された。
さらに、annはモデル誤差の存在下で予測の不確かさの信頼性の高い推定を提供する。
関連論文リスト
- Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Toward Reliable Human Pose Forecasting with Uncertainty [62.83828620074307]
我々は、複数のモデル、データセット、標準化された評価指標を特徴とする、人間のポーズ予測のためのオープンソースのライブラリを開発した。
本研究では,不確かさの挙動に関する知識を注入するために,不確実性事前を用いてアレタリック不確かさをモデル化する手法を提案する。
実験では,精度が最大で25%向上し,不確実性推定の性能が向上した。
論文 参考訳(メタデータ) (2023-04-13T17:56:08Z) - Comparison of Uncertainty Quantification with Deep Learning in Time
Series Regression [7.6146285961466]
本稿では,気象時系列データと異なる不確実性推定手法を比較した。
その結果,各不確実性推定手法が予測タスクに与える影響が示された。
論文 参考訳(メタデータ) (2022-11-11T14:29:13Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Uncertainty estimation of pedestrian future trajectory using Bayesian
approximation [137.00426219455116]
動的トラフィックシナリオでは、決定論的予測に基づく計画は信頼できない。
著者らは、決定論的アプローチが捉えられない近似を用いて予測中の不確実性を定量化する。
将来の状態の不確実性に対する降雨重量と長期予測の影響について検討した。
論文 参考訳(メタデータ) (2022-05-04T04:23:38Z) - Probabilistic Deep Learning to Quantify Uncertainty in Air Quality
Forecasting [5.007231239800297]
この研究は、空気質予測の現実的な設定における不確実性定量化の最先端技術を適用した。
本稿では,経験的性能,信頼度推定の信頼性,実用性に基づいて,トレーニング確率モデルを記述し,予測の不確実性を評価する。
本実験は,データ駆動空気質予測の不確かさの定量化において,提案モデルが従来よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-12-05T17:01:18Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Learning Prediction Intervals for Model Performance [1.433758865948252]
モデル性能の予測間隔を計算する手法を提案する。
我々は,幅広いドリフト条件におけるアプローチを評価し,競合ベースラインよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2020-12-15T21:32:03Z) - Robust Validation: Confident Predictions Even When Distributions Shift [24.211408049646153]
本稿では,モデルが点予測ではなく,その予測に対して不確実な推定を行うような,頑健な予測推論の手順について述べる。
本稿では, トレーニング集団の周囲に$f$-divergence のボールを用いて, 任意のテスト分布に対して適切なカバレッジレベルを与える予測セットを生成する手法を提案する。
私たちの方法論の重要な構成要素は、将来のデータシフトの量を見積り、それに対する堅牢性を構築することです。
論文 参考訳(メタデータ) (2020-08-10T17:09:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。