論文の概要: Epistemic Error Decomposition for Multi-step Time Series Forecasting: Rethinking Bias-Variance in Recursive and Direct Strategies
- arxiv url: http://arxiv.org/abs/2511.11461v1
- Date: Fri, 14 Nov 2025 16:32:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.721465
- Title: Epistemic Error Decomposition for Multi-step Time Series Forecasting: Rethinking Bias-Variance in Recursive and Direct Strategies
- Title(参考訳): 多段階時系列予測のためのエピステミックエラー分解:再帰的および直接的戦略におけるバイアス変動を再考する
- Authors: Riku Green, Huw Day, Zahraa S. Abdallah, Telmo M. Silva Filho,
- Abstract要約: 予測される多段階予測誤差を,既約雑音,構造近似ギャップ,推定分散項の3つの部分に分解する。
線形予測器の場合、構造的ギャップは任意のデータセットに対してゼロであることを示す。
しかし、非線形予測器では、再帰に使用される繰り返し合成はモデル表現性を高めることができる。
- 参考スコア(独自算出の注目度): 1.1432909951914676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-step forecasting is often described through a simple rule of thumb: recursive strategies are said to have high bias and low variance, while direct strategies are said to have low bias and high variance. We revisit this belief by decomposing the expected multi-step forecast error into three parts: irreducible noise, a structural approximation gap, and an estimation-variance term. For linear predictors we show that the structural gap is identically zero for any dataset. For nonlinear predictors, however, the repeated composition used in recursion can increase model expressivity, making the structural gap depend on both the model and the data. We further show that the estimation variance of the recursive strategy at any horizon can be written as the one-step variance multiplied by a Jacobian-based amplification factor that measures how sensitive the composed predictor is to parameter error. This perspective explains when recursive forecasting may simultaneously have lower bias and higher variance than direct forecasting. Experiments with multilayer perceptrons on the ETTm1 dataset confirm these findings. The results offer practical guidance for choosing between recursive and direct strategies based on model nonlinearity and noise characteristics, rather than relying on traditional bias-variance intuition.
- Abstract(参考訳): 再帰的戦略は高いバイアスと低い分散を持つが、直接的な戦略は低いバイアスと高い分散を持つと言われる。
我々は、予測される多段階予測誤差を、既約ノイズ、構造近似ギャップ、推定分散項の3つの部分に分解することで、この信念を再考する。
線形予測器の場合、構造的ギャップは任意のデータセットに対してゼロであることを示す。
しかし、非線形予測器の場合、再帰に使用される繰り返し合成はモデル表現性を増大させ、構造的ギャップはモデルとデータの両方に依存する。
さらに、任意の地平線における再帰的戦略の推定分散は、構成された予測器がパラメータ誤差にどれほど敏感であるかを測定するヤコビアン増幅係数によって乗算された一段階の分散として記述できることを示す。
この視点は、再帰的予測が直接予測よりもバイアスが低く、ばらつきも高い場合を説明する。
ETTm1データセット上の多層パーセプトロンを用いた実験により,これらの知見が確認された。
その結果,従来のバイアス分散直観に頼るのではなく,モデル非線形性と雑音特性に基づく再帰的戦略と直接戦略のどちらを選択するかを選択するための実践的ガイダンスが得られた。
関連論文リスト
- Improved probabilistic regression using diffusion models [16.918373481904755]
本研究では,予測分布を非可逆的に学習する確率回帰のための拡散に基づく新しいフレームワークを提案する。
雑音のパラメータ化について検討し,そのトレードオフを解析し,その枠組みを広範囲の回帰タスクで評価する。
いくつかの実験において、本手法は既存のベースラインに対して優れた性能を示し、キャリブレーションされた不確実性推定を提供する。
論文 参考訳(メタデータ) (2025-10-06T08:36:05Z) - High-dimensional logistic regression with missing data: Imputation, regularization, and universality [7.167672851569787]
我々は高次元リッジ規則化ロジスティック回帰について検討する。
予測誤差と推定誤差の両方を正確に評価する。
論文 参考訳(メタデータ) (2024-10-01T21:41:21Z) - A U-turn on Double Descent: Rethinking Parameter Counting in Statistical
Learning [68.76846801719095]
二重降下がいつどこで起こるのかを正確に示し、その位置が本質的に閾値 p=n に結び付けられていないことを示す。
これは二重降下と統計的直観の間の緊張を解消する。
論文 参考訳(メタデータ) (2023-10-29T12:05:39Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Prediction Risk and Estimation Risk of the Ridgeless Least Squares Estimator under General Assumptions on Regression Errors [10.857775300638831]
より一般的な回帰誤差仮定の下で予測リスクと推定リスクについて検討する。
その結果,パラメータ化の利点は時系列,パネル,グループ化データにまで拡張できることが示唆された。
論文 参考訳(メタデータ) (2023-05-22T10:04:20Z) - High-dimensional analysis of double descent for linear regression with
random projections [0.0]
ランダムな投影数が異なる線形回帰問題を考察し、固定された予測問題に対する二重降下曲線を確実に示す。
まず、リッジ回帰推定器を考察し、非パラメトリック統計学の古典的概念を用いて先行結果を再解釈する。
次に、最小ノルム最小二乗の一般化性能(バイアスと分散の観点から)の同値をランダムな射影に適合させ、二重降下現象の単純な表現を与える。
論文 参考訳(メタデータ) (2023-03-02T15:58:09Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Which Invariance Should We Transfer? A Causal Minimax Learning Approach [18.71316951734806]
本稿では、因果的観点からの包括的ミニマックス分析について述べる。
最小の最悪のリスクを持つサブセットを探索する効率的なアルゴリズムを提案する。
本手法の有効性と有効性は, 合成データとアルツハイマー病の診断で実証された。
論文 参考訳(メタデータ) (2021-07-05T09:07:29Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z) - Explainable boosted linear regression for time series forecasting [0.1876920697241348]
時系列予測では、過去の観測を収集し分析し、将来の観測を外挿するモデルを開発する。
時系列予測のための説明可能な強化線形回帰(EBLR)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-18T22:31:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。