論文の概要: Quadratic Direct Forecast for Training Multi-Step Time-Series Forecast Models
- arxiv url: http://arxiv.org/abs/2511.00053v1
- Date: Tue, 28 Oct 2025 14:48:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.545501
- Title: Quadratic Direct Forecast for Training Multi-Step Time-Series Forecast Models
- Title(参考訳): 多段階時系列予測モデルの訓練用2次直接予測
- Authors: Hao Wang, Licheng Pan, Yuan Lu, Zhichao Chen, Tianqiao Liu, Shuting He, Zhixuan Chu, Qingsong Wen, Haoxuan Li, Zhouchen Lin,
- Abstract要約: 既存の訓練目的は主に、各将来のステップを独立して均等に重み付けされたタスクとして扱う。
本稿では,両課題を同時に解決する2次元重み付き学習目標を提案する。
実験の結果,QDFは様々な予測モデルの性能を効果的に向上することが示された。
- 参考スコア(独自算出の注目度): 88.18038107198218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The design of training objective is central to training time-series forecasting models. Existing training objectives such as mean squared error mostly treat each future step as an independent, equally weighted task, which we found leading to the following two issues: (1) overlook the label autocorrelation effect among future steps, leading to biased training objective; (2) fail to set heterogeneous task weights for different forecasting tasks corresponding to varying future steps, limiting the forecasting performance. To fill this gap, we propose a novel quadratic-form weighted training objective, addressing both of the issues simultaneously. Specifically, the off-diagonal elements of the weighting matrix account for the label autocorrelation effect, whereas the non-uniform diagonals are expected to match the most preferable weights of the forecasting tasks with varying future steps. To achieve this, we propose a Quadratic Direct Forecast (QDF) learning algorithm, which trains the forecast model using the adaptively updated quadratic-form weighting matrix. Experiments show that our QDF effectively improves performance of various forecast models, achieving state-of-the-art results. Code is available at https://anonymous.4open.science/r/QDF-8937.
- Abstract(参考訳): トレーニング目標の設計は、時系列予測モデルのトレーニングの中心である。
従来の訓練目標である平均二乗誤差(平均二乗誤差(平均二乗誤差)は,各将来のステップを独立的に等重み付けしたタスクとして扱うことが多く,次の2つの課題に導いた。(1) 将来のステップ間でラベル自己相関効果を見逃し,バイアスのあるトレーニング目標に導くこと,(2) 将来のステップに応じた様々な予測タスクに対して異種タスク重みを設定すること,そして予測性能を制限すること。
このギャップを埋めるために,両課題を同時に解決する新たな2次形式重み付きトレーニング目標を提案する。
具体的には,重み行列の対角線外要素はラベル自己相関効果を考慮し,非一様対角線は予測タスクの最も望ましい重みと様々な将来のステップを一致させることが期待される。
そこで本研究では,適応的に更新された2次形式重み付け行列を用いて予測モデルをトレーニングする,擬似直接予測(QDF)学習アルゴリズムを提案する。
実験の結果、QDFは様々な予測モデルの性能を効果的に向上し、最先端の結果が得られた。
コードはhttps://anonymous.4open.science/r/QDF-8937で公開されている。
関連論文リスト
- Enhancing Training Data Attribution with Representational Optimization [57.61977909113113]
トレーニングデータ属性法は、トレーニングデータがモデルの予測にどのように影響するかを測定することを目的としている。
本稿では,タスク固有表現とモデル整合表現をTDAで明示的に学習することで,このギャップを埋める表現ベースアプローチであるAirRepを提案する。
AirRepは、属性品質に合わせて調整されたトレーニング可能なエンコーダと、グループワイドの影響を正確に見積もるアテンションベースのプール機構の2つの重要なイノベーションを紹介している。
論文 参考訳(メタデータ) (2025-05-24T05:17:53Z) - Can Pre-training Indicators Reliably Predict Fine-tuning Outcomes of LLMs? [42.608899417822656]
本研究では,501BパラメータLLM変種を用いて,系統的な事前学習構成を持つデータセットを構築した。
本稿では,事前学習から得られた新しい教師なしおよび教師なしのプロキシメトリクスを導入し,相対的な性能予測誤差率を50%以上削減する。
論文 参考訳(メタデータ) (2025-04-16T21:19:09Z) - Establishing Task Scaling Laws via Compute-Efficient Model Ladders [136.76316239300363]
我々は,事前訓練された言語モデル(LM)のタスク性能を予測するために,タスクスケーリング法則とモデルはしごを開発する。
2つの予測ステップのパラメータ化関数に適合するデータポイントを収集し、2つの対象モデルの予測を行う。
ランク付けされた4つの多重選択タスクにおいて、絶対誤差の2ポイント以内で、両方のターゲットモデルの精度を予測することができる。
論文 参考訳(メタデータ) (2024-12-05T18:21:49Z) - Forecasting Workload in Cloud Computing: Towards Uncertainty-Aware
Predictions and Transfer Learning [1.5749416770494704]
予測の不確かさをモデル化することは、性能に肯定的な影響を及ぼすことを示す。
モデルが異なるドメイン間での伝達学習能力に有益かどうかを検討する。
論文 参考訳(メタデータ) (2023-02-24T14:51:30Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。