論文の概要: TEFL: Prediction-Residual-Guided Rolling Forecasting for Multi-Horizon Time Series
- arxiv url: http://arxiv.org/abs/2602.22520v1
- Date: Thu, 26 Feb 2026 01:31:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.467854
- Title: TEFL: Prediction-Residual-Guided Rolling Forecasting for Multi-Horizon Time Series
- Title(参考訳): TEFL:マルチ水平時系列の予測残留誘導圧延予測
- Authors: Xiannan Huang, Shen Fang, Shuhan Qiu, Chengcheng Yu, Jiayuan Du, Chao Yang,
- Abstract要約: 本研究では,トレーニングと評価の両方において,過去の残差を予測パイプラインに明示的に組み込んだ統合学習フレームワークを提案する。
10の現実世界のデータセットと5つのバックボーンアーキテクチャによる実験では、TEFLは一貫して精度を改善し、MAEを平均で5~10%削減している。
急激な変化と分布シフトの下で強い堅牢性を示し、困難なシナリオではエラーの削減が10%(最大19.5%)を超える。
- 参考スコア(独自算出の注目度): 4.942021101617155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting plays a critical role in domains such as transportation, energy, and meteorology. Despite their success, modern deep forecasting models are typically trained to minimize point-wise prediction loss without leveraging the rich information contained in past prediction residuals from rolling forecasts - residuals that reflect persistent biases, unmodeled patterns, or evolving dynamics. We propose TEFL (Temporal Error Feedback Learning), a unified learning framework that explicitly incorporates these historical residuals into the forecasting pipeline during both training and evaluation. To make this practical in deep multi-step settings, we address three key challenges: (1) selecting observable multi-step residuals under the partial observability of rolling forecasts, (2) integrating them through a lightweight low-rank adapter to preserve efficiency and prevent overfitting, and (3) designing a two-stage training procedure that jointly optimizes the base forecaster and error module. Extensive experiments across 10 real-world datasets and 5 backbone architectures show that TEFL consistently improves accuracy, reducing MAE by 5-10% on average. Moreover, it demonstrates strong robustness under abrupt changes and distribution shifts, with error reductions exceeding 10% (up to 19.5%) in challenging scenarios. By embedding residual-based feedback directly into the learning process, TEFL offers a simple, general, and effective enhancement to modern deep forecasting systems.
- Abstract(参考訳): 時系列予測は、輸送、エネルギー、気象学といった領域において重要な役割を果たす。
彼らの成功にもかかわらず、現代の深い予測モデルは、通常、転がり予測の過去の予測残差(永続的バイアス、未モデル化パターン、または進化的ダイナミクスを反映した残差)に含まれる豊富な情報を活用することなく、ポイントワイズ予測損失を最小限に抑えるように訓練されている。
TEFL(Temporal Error Feedback Learning)は,トレーニングと評価の双方において,これらの履歴を予測パイプラインに明示的に組み込んだ統合学習フレームワークである。
これを実現するために,(1)転がり予測の部分的観測可能性の下で観測可能な多段階残差を選択すること,(2)効率を保ち,過度な適合を防止するために軽量な低ランクアダプタを通じてそれらを統合すること,(3)ベース予測器とエラーモジュールを協調的に最適化する2段階の訓練手順を設計すること,の3つの課題に対処する。
10の現実世界のデータセットと5つのバックボーンアーキテクチャにわたる大規模な実験は、TEFLが一貫して精度を向上し、MAEを平均で5~10%削減していることを示している。
さらに、急激な変化と分散シフトの下で強い堅牢性を示し、困難なシナリオではエラーの削減が10%(最大19.5%)を超える。
残差に基づくフィードバックを直接学習プロセスに埋め込むことで、TEFLは現代の深層予測システムにシンプルで汎用的で効果的な強化を提供する。
関連論文リスト
- EMFormer: Efficient Multi-Scale Transformer for Accumulative Context Weather Forecasting [34.793750131438934]
長期の天気予報は社会経済計画や災害に備える上で重要である。
本稿では,事前学習,微調整,予測にまたがる新しいパイプラインを提案する。
トレーニングと推論の両方において単一の畳み込みによってマルチスケール特徴を抽出する効率的なマルチスケールトランス (EMFormer) を提案する。
論文 参考訳(メタデータ) (2026-02-01T12:36:01Z) - The Forecast Critic: Leveraging Large Language Models for Poor Forecast Identification [74.64864354503204]
本稿では,Large Language Models (LLM) を利用した予測自動監視システムであるThe Forecast Criticを提案する。
LLMの時系列予測品質を評価する能力を評価する。
合成および実世界の予測データを含む3つの実験を行った。
論文 参考訳(メタデータ) (2025-12-12T21:59:53Z) - A Diffusion-Based Framework for High-Resolution Precipitation Forecasting over CONUS [0.410492188035848]
本研究では,拡散に基づくディープラーニング(DL)フレームワークを,入力源のみが異なる3つの残差予測戦略を体系的に比較する。
予測は1kmの空間解像度で生成され、1時間の直接予測から始まり、自動回帰ロールアウトを使用して12時間まで延長される。
論文 参考訳(メタデータ) (2025-12-09T19:23:27Z) - IISE PG&E Energy Analytics Challenge 2025: Hourly-Binned Regression Models Beat Transformers in Load Forecasting [0.0]
本研究では,古典的回帰手法から高度なディープラーニングアーキテクチャに至るまで,予測モデルを評価する。
このデータセットには、過去2年間の電力負荷データと、5つの場所にわたる温度およびグローバル水平照射(GHI)が含まれている。
その結果、TimeGPTを含むディープラーニングモデルは、より単純な統計的および機械学習アプローチを一貫して上回りません。
論文 参考訳(メタデータ) (2025-05-16T15:55:34Z) - Directly Forecasting Belief for Reinforcement Learning with Delays [41.52768902667611]
遅延を伴う強化学習は、実際の出来事の遅れを知覚的に知覚することが困難である。
我々は、DFBT(Directly Forecasting Belief Transformer)という新しい信念推定手法を開発した。
DFBTは、段階的に中間状態を段階的に推定することなく、観測から状態を直接予測する。
論文 参考訳(メタデータ) (2025-05-01T14:20:48Z) - Overtrained Language Models Are Harder to Fine-Tune [64.44743256512237]
大規模言語モデルは、成長を続けるトークン予算に基づいて事前訓練されている。
事前トレーニングの拡張により、モデルを微調整しにくくなり、最終的なパフォーマンスが低下することを示した。
論文 参考訳(メタデータ) (2025-03-24T23:11:56Z) - Forecast-PEFT: Parameter-Efficient Fine-Tuning for Pre-trained Motion Forecasting Models [68.23649978697027]
Forecast-PEFTは、モデルのパラメータの大部分を凍結し、新しく導入されたプロンプトとアダプタの調整に集中する微調整戦略である。
実験の結果,Forecast-PEFTは動作予測タスクにおいて従来のフルチューニング手法よりも優れていた。
Forecast-FTは予測性能をさらに改善し、従来のベースライン法よりも最大9.6%向上した。
論文 参考訳(メタデータ) (2024-07-28T19:18:59Z) - ExtremeCast: Boosting Extreme Value Prediction for Global Weather Forecast [57.6987191099507]
非対称な最適化を行い、極端な天気予報を得るために極端な値を強調する新しい損失関数であるExlossを導入する。
また,複数のランダムサンプルを用いて予測結果の不確かさをキャプチャするExBoosterについても紹介する。
提案手法は,上位中距離予測モデルに匹敵する全体的な予測精度を維持しつつ,極端気象予測における最先端性能を達成することができる。
論文 参考訳(メタデータ) (2024-02-02T10:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。