論文の概要: Enforcing tail calibration when training probabilistic forecast models
- arxiv url: http://arxiv.org/abs/2506.13687v1
- Date: Mon, 16 Jun 2025 16:51:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:49.082947
- Title: Enforcing tail calibration when training probabilistic forecast models
- Title(参考訳): 確率予測モデルのトレーニングにおけるテールキャリブレーションの強化
- Authors: Jakob Benjamin Wessel, Maybritt Schillinger, Frank Kwasniok, Sam Allen,
- Abstract要約: 本研究では,確率予測モデルの学習に使用する損失関数を用いて,極端な事象に対する予測の信頼性を向上させる方法について検討する。
我々は,最先端モデルが極端風速のキャリブレーション予測を発行しないことを示すとともに,モデルトレーニング中の損失関数への適切な適応により,極端事象のキャリブレーションを改善することができることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Probabilistic forecasts are typically obtained using state-of-the-art statistical and machine learning models, with model parameters estimated by optimizing a proper scoring rule over a set of training data. If the model class is not correctly specified, then the learned model will not necessarily issue forecasts that are calibrated. Calibrated forecasts allow users to appropriately balance risks in decision making, and it is particularly important that forecast models issue calibrated predictions for extreme events, since such outcomes often generate large socio-economic impacts. In this work, we study how the loss function used to train probabilistic forecast models can be adapted to improve the reliability of forecasts made for extreme events. We investigate loss functions based on weighted scoring rules, and additionally propose regularizing loss functions using a measure of tail miscalibration. We apply these approaches to a hierarchy of increasingly flexible forecast models for UK wind speeds, including simple parametric models, distributional regression networks, and conditional generative models. We demonstrate that state-of-the-art models do not issue calibrated forecasts for extreme wind speeds, and that the calibration of forecasts for extreme events can be improved by suitable adaptations to the loss function during model training. This, however, introduces a trade-off between calibrated forecasts for extreme events and calibrated forecasts for more common outcomes.
- Abstract(参考訳): 確率的予測は通常、最先端統計モデルと機械学習モデルを用いて得られ、モデルのパラメータは、一連のトレーニングデータに対して適切なスコアリングルールを最適化することによって推定される。
モデルクラスが正しく指定されていない場合、学習したモデルは必ずしも校正された予測を発行しない。
キャリブレーション予測は意思決定のリスクを適切にバランスさせることができ、予測モデルが極端な事象に対するキャリブレーション予測を発行することが特に重要である。
本研究では,確率予測モデルの学習に使用する損失関数を用いて,極端な事象に対する予測の信頼性を向上させる方法について検討する。
重み付けされたスコアリング規則に基づく損失関数について検討し、さらにテール誤校正の尺度を用いて損失関数の正則化を提案する。
これらのアプローチを、単純なパラメトリックモデル、分布回帰ネットワーク、条件付き生成モデルを含む、イギリスの風速の柔軟化予測モデルの階層化に適用する。
我々は,最先端モデルが極端風速のキャリブレーション予測を発行しないことを示すとともに,モデルトレーニング中の損失関数への適切な適応により,極端事象のキャリブレーションを改善することができることを示した。
しかし、これは極端な事象の校正予測とより一般的な結果の校正予測との間にトレードオフをもたらす。
関連論文リスト
- Probabilistic Scores of Classifiers, Calibration is not Enough [0.32985979395737786]
二項分類タスクでは、確率的予測の正確な表現が実世界の様々な応用に不可欠である。
本研究では,予測スコアと真の確率分布の一致を優先するアプローチを強調した。
その結果,従来の校正基準の限界が明らかとなり,重要な意思決定のための予測モデルの信頼性を損なう可能性が示唆された。
論文 参考訳(メタデータ) (2024-08-06T19:53:00Z) - Improving probabilistic forecasts of extreme wind speeds by training statistical post-processing models with weighted scoring rules [0.0]
閾値重み付き連続ランク確率スコア(twCRPS)を用いたトレーニングは、後処理モデルの極端なイベント性能を向上させる。
極端事象の確率論的予測の性能が向上し,分布物体の予測性能が低下する分布体テールトレードオフが発見された。
論文 参考訳(メタデータ) (2024-07-22T11:07:52Z) - ExtremeCast: Boosting Extreme Value Prediction for Global Weather Forecast [57.6987191099507]
非対称な最適化を行い、極端な天気予報を得るために極端な値を強調する新しい損失関数であるExlossを導入する。
また,複数のランダムサンプルを用いて予測結果の不確かさをキャプチャするExBoosterについても紹介する。
提案手法は,上位中距離予測モデルに匹敵する全体的な予測精度を維持しつつ,極端気象予測における最先端性能を達成することができる。
論文 参考訳(メタデータ) (2024-02-02T10:34:13Z) - Learning Sample Difficulty from Pre-trained Models for Reliable
Prediction [55.77136037458667]
本稿では,大規模事前学習モデルを用いて,サンプル難易度を考慮したエントロピー正規化による下流モデルトレーニングを指導する。
我々は、挑戦的なベンチマークで精度と不確実性の校正を同時に改善する。
論文 参考訳(メタデータ) (2023-04-20T07:29:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。