論文の概要: An Optimization Method for Autoregressive Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2602.02288v1
- Date: Mon, 02 Feb 2026 16:28:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.290994
- Title: An Optimization Method for Autoregressive Time Series Forecasting
- Title(参考訳): 自己回帰時系列予測の最適化手法
- Authors: Zheng Li, Jerry Cheng, Huanying Gu,
- Abstract要約: 現在の時系列予測モデルは、主にトランスフォーマースタイルのニューラルネットワークに基づいている。
本稿では,2つの重要な特性を強制する時系列予測のための新しいトレーニング手法を提案する。
提案手法はiTransformerと比較してMSEを10%以上削減する。
- 参考スコア(独自算出の注目度): 4.467218412104476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current time-series forecasting models are primarily based on transformer-style neural networks. These models achieve long-term forecasting mainly by scaling up the model size rather than through genuinely autoregressive (AR) rollout. From the perspective of large language model training, the traditional training process for time-series forecasting models ignores temporal causality. In this paper, we propose a novel training method for time-series forecasting that enforces two key properties: (1) AR prediction errors should increase with the forecasting horizon. Any violation of this principle is considered random guessing and is explicitly penalized in the loss function, and (2) the method enables models to concatenate short-term AR predictions for forming flexible long-term forecasts. Empirical results demonstrate that our method establishes a new state-of-the-art across multiple benchmarks, achieving an MSE reduction of more than 10% compared to iTransformer and other recent strong baselines. Furthermore, it enables short-horizon forecasting models to perform reliable long-term predictions at horizons over 7.5 times longer. Code is available at https://github.com/LizhengMathAi/AROpt
- Abstract(参考訳): 現在の時系列予測モデルは、主にトランスフォーマースタイルのニューラルネットワークに基づいている。
これらのモデルは主に、真の自己回帰(AR)ロールアウトではなく、モデルサイズをスケールアップすることで、長期的な予測を実現する。
大規模言語モデルトレーニングの観点からは、時系列予測モデルの伝統的なトレーニングプロセスは時間的因果性を無視している。
本稿では,(1)AR予測誤差は予測地平線で増大すべきである,という2つの重要な特性を強制する時系列予測の新しいトレーニング手法を提案する。
この原理のいかなる違反もランダムな推理と見なされ、損失関数に明示的に罰せられ、(2)モデルがフレキシブルな長期予測を形成するための短期AR予測を結合できるようにする。
実験により,本手法は複数のベンチマークにまたがる新たな最先端性を確立し,近年のiTransformerや他の強力なベースラインと比較して,MSEの10%以上の削減を実現していることが示された。
さらに、短期水平予測モデルにより、地平線で7.5倍以上の信頼性のある長期予測を行うことができる。
コードはhttps://github.com/LizhengMathAi/AROptで入手できる。
関連論文リスト
- Back to the Future: Look-ahead Augmentation and Parallel Self-Refinement for Time Series Forecasting [10.615433089293228]
Back to the Future(バック・トゥ・ザ・フューチャー・トゥ・フューチャー)は、ルックアヘッドの強化と自己修正による安定性の予測を強化する、シンプルで効果的なフレームワークである。
その単純さにもかかわらず、我々の手法は長い水平精度を一貫して改善し、線形予測モデルの不安定性を緩和する。
これらの結果から, モデル生成予測を拡張として活用することは, 複雑なアーキテクチャがなくても, 長期予測を高めるための単純かつ強力な方法である可能性が示唆された。
論文 参考訳(メタデータ) (2026-02-02T14:23:31Z) - TARFVAE: Efficient One-Step Generative Time Series Forecasting via TARFLOW based VAE [3.7770105485163206]
本稿では,Transformer-based autoregressive Flow (TARFLOW) と変動型オートエンコーダ (VAE) を組み合わせた新しい生成フレームワークであるTARFVAEについて述べる。
単純なモジュールでは、TARFVAEはデータセット上の様々な予測地平線を越えて、最先端の決定論的および生成的モデルよりも優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-11-28T03:19:14Z) - Does Scaling Law Apply in Time Series Forecasting? [2.127584662240465]
我々は,kレベルパラメータのみを用いて競合性能を実現する超軽量予測モデルであるAlinearを提案する。
7つのベンチマークデータセットの実験では、Alinearが大規模モデルよりも一貫して優れていることが示されている。
この研究は、より大きなモデルが本質的に優れているという一般的な信念に挑戦し、より効率的な時系列モデリングへのパラダイムシフトを示唆している。
論文 参考訳(メタデータ) (2025-05-15T11:04:39Z) - Loss Shaping Constraints for Long-Term Time Series Forecasting [79.3533114027664]
本稿では,長期時系列予測のための制約付き学習手法を提案する。
提案手法は, 予測ウィンドウ上でエラーを発生させながら, 時系列ベンチマークにおける競合平均性能を示すことを示すための, 実用的なプリマル・デュアルアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-14T18:20:44Z) - ExtremeCast: Boosting Extreme Value Prediction for Global Weather Forecast [57.6987191099507]
非対称な最適化を行い、極端な天気予報を得るために極端な値を強調する新しい損失関数であるExlossを導入する。
また,複数のランダムサンプルを用いて予測結果の不確かさをキャプチャするExBoosterについても紹介する。
提案手法は,上位中距離予測モデルに匹敵する全体的な予測精度を維持しつつ,極端気象予測における最先端性能を達成することができる。
論文 参考訳(メタデータ) (2024-02-02T10:34:13Z) - Mlinear: Rethink the Linear Model for Time-series Forecasting [9.841293660201261]
Mlinearは、主に線形層に基づく単純だが効果的な方法である。
複数のデータセット上で広く使われている平均二乗誤差(MSE)を大幅に上回る新しい損失関数を導入する。
提案手法は,PatchTSTを336列長入力で21:3,512列長入力で29:10で有意に上回った。
論文 参考訳(メタデータ) (2023-05-08T15:54:18Z) - Meta-Forecasting by combining Global DeepRepresentations with Local
Adaptation [12.747008878068314]
メタグローバルローカル自動回帰(Meta-GLAR)と呼ばれる新しい予測手法を導入する。
それは、リカレントニューラルネットワーク(RNN)によって生成された表現からワンステップアヘッド予測へのマッピングをクローズドフォームで学習することで、各時系列に適応する。
本手法は,先行研究で報告されたサンプル外予測精度において,最先端の手法と競合する。
論文 参考訳(メタデータ) (2021-11-05T11:45:02Z) - Back2Future: Leveraging Backfill Dynamics for Improving Real-time
Predictions in Future [73.03458424369657]
公衆衛生におけるリアルタイム予測では、データ収集は簡単で要求の多いタスクである。
過去の文献では「バックフィル」現象とそのモデル性能への影響についてはほとんど研究されていない。
我々は、与えられたモデルの予測をリアルタイムで洗練することを目的とした、新しい問題とニューラルネットワークフレームワークBack2Futureを定式化する。
論文 参考訳(メタデータ) (2021-06-08T14:48:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。