論文の概要: Ensemble-size-dependence of deep-learning post-processing methods that minimize an (un)fair score: motivating examples and a proof-of-concept solution
- arxiv url: http://arxiv.org/abs/2602.15830v1
- Date: Tue, 17 Feb 2026 18:59:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.177238
- Title: Ensemble-size-dependence of deep-learning post-processing methods that minimize an (un)fair score: motivating examples and a proof-of-concept solution
- Title(参考訳): 未学習スコアを最小化する深層学習後処理手法のエンサンブルサイズ依存性--モチベーション事例と概念実証ソリューション
- Authors: Christopher David Roberts,
- Abstract要約: 軌道変換器を,アンサンブルサイズの独立性を実現するための概念実証として導入する。
このアプローチは、トランスフォーマー(PoET)フレームワークによるポストプロセッシング・アンサンブル(Post-processing Ensembles)の適応である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fair scores reward ensemble forecast members that behave like samples from the same distribution as the verifying observations. They are therefore an attractive choice as loss functions to train data-driven ensemble forecasts or post-processing methods when large training ensembles are either unavailable or computationally prohibitive. The adjusted continuous ranked probability score (aCRPS) is fair and unbiased with respect to ensemble size, provided forecast members are exchangeable and interpretable as conditionally independent draws from an underlying predictive distribution. However, distribution-aware post-processing methods that introduce structural dependency between members can violate this assumption, rendering aCRPS unfair. We demonstrate this effect using two approaches designed to minimize the expected aCRPS of a finite ensemble: (1) a linear member-by-member calibration, which couples members through a common dependency on the sample ensemble mean, and (2) a deep-learning method, which couples members via transformer self-attention across the ensemble dimension. In both cases, the results are sensitive to ensemble size and apparent gains in aCRPS can correspond to systematic unreliability characterized by over-dispersion. We introduce trajectory transformers as a proof-of-concept that ensemble-size independence can be achieved. This approach is an adaptation of the Post-processing Ensembles with Transformers (PoET) framework and applies self-attention over lead time while preserving the conditional independence required by aCRPS. When applied to weekly mean $T_{2m}$ forecasts from the ECMWF subseasonal forecasting system, this approach successfully reduces systematic model biases whilst also improving or maintaining forecast reliability regardless of the ensemble size used in training (3 vs 9 members) or real-time forecasts (9 vs 100 members).
- Abstract(参考訳): フェアスコアは、検証された観測結果と同じ分布のサンプルのように振る舞う報酬アンサンブル予測メンバーである。
したがって、大規模なトレーニングアンサンブルが利用できないか、計算的に禁止されている場合、データ駆動型アンサンブル予測や後処理方法を訓練する損失関数として、これらは魅力的な選択である。
調整された連続ランク確率スコア(aCRPS)は、アンサンブルサイズに対して公平で偏りがなく、予測部材が、基礎となる予測分布から条件的に独立したドローとして交換可能で解釈可能である。
しかし、メンバ間の構造的依存関係を導入する分散対応のポストプロセッシング手法は、この仮定に違反する可能性があるため、aCRPSは不公平である。
この効果は,(1) サンプルアンサンブル平均への共通依存を通してメンバを結合する線形メンバ・バイ・メンバ・キャリブレーション,(2) アンサンブル次元を横断するトランスフォーマー・セルフアテンションを介してメンバを結合する深層学習法という,有限アンサンブルの期待するACRPSを最小化するために設計された2つのアプローチを用いて実証する。
いずれの場合も、結果はアンサンブルサイズに敏感であり、aCRPSの明らかな利得は、過分散を特徴とする系統的不安定性に対応できる。
軌道変換器を,アンサンブルサイズの独立性を実現するための概念実証として導入する。
このアプローチは、トランスフォーマー(PoET)フレームワークによるポストプロセッシング・アンサンブル(Post-processing Ensembles)の適応であり、ACRPSが要求する条件付き独立性を維持しながら、リードタイムに自己注意を適用する。
週平均$T_{2m}$予測をECMWFのサブシーズン予測システムから適用すると、トレーニング(3人対9人)やリアルタイム予測(9人対100人)に使用するアンサンブルサイズに関わらず、予測信頼性を改善したり維持したりしながら、体系的なモデルバイアスを低減できる。
関連論文リスト
- ResCP: Reservoir Conformal Prediction for Time Series Forecasting [39.81023599249223]
コンフォーマル予測は、交換可能なデータに対して、分散のない予測間隔を構築するための強力なフレームワークを提供する。
本稿では,Reservoir Conformal Prediction (ResCP)を提案する。
論文 参考訳(メタデータ) (2025-10-06T17:37:44Z) - Achieving Group Fairness through Independence in Predictive Process Monitoring [0.0]
予測プロセス監視は、特定のケースの結果を予測するなど、進行中のプロセス実行の将来の状態を予測することに焦点を当てる。
近年,この領域における機械学習モデルの適用は科学的な注目を集めている。
この研究は、独立性の調査による予測プロセス監視におけるグループフェアネス、すなわち、センシティブなグループメンバーシップによる予測が影響を受けないことを保証する。
論文 参考訳(メタデータ) (2024-12-06T10:10:47Z) - Adaptive Uncertainty Quantification for Generative AI [0.0]
分割コンフォーマルな推論を反映して、整合性のスコアを校正するブラックボックスアルゴリズムのラッパーを設計する。
校正セット上の適合点に頑健な回帰木を嵌合させることにより適応的分割を実現する。
従来のスプリット・コンフォーマルな推論とは異なり、適応的な分割とグループ内キャリブレーションは、局所的に拡張および縮小できる適応バンドをもたらす。
論文 参考訳(メタデータ) (2024-08-16T19:37:33Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。