論文の概要: Non-collective Calibrating Strategy for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2506.03176v2
- Date: Wed, 02 Jul 2025 12:02:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:57.7449
- Title: Non-collective Calibrating Strategy for Time Series Forecasting
- Title(参考訳): 時系列予測のためのノンコレクティブキャリブレーション戦略
- Authors: Bin Wang, Yongqi Han, Minbo Ma, Tianrui Li, Junbo Zhang, Feng Hong, Yanwei Yu,
- Abstract要約: 時系列の複雑なダイナミクスは、黄金のモデルアーキテクチャを設計するための親指の規則を確立することを困難にしている。
我々は、資源コストを最小限に抑えて、既存の高度なモデルを普遍的な校正戦略で精錬することは、かなりの利益をもたらすと論じている。
Socket+Plug (SoP) と呼ばれる革新的な校正戦略を提案する。
- 参考スコア(独自算出の注目度): 21.202820492929224
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning-based approaches have demonstrated significant advancements in time series forecasting. Despite these ongoing developments, the complex dynamics of time series make it challenging to establish the rule of thumb for designing the golden model architecture. In this study, we argue that refining existing advanced models through a universal calibrating strategy can deliver substantial benefits with minimal resource costs, as opposed to elaborating and training a new model from scratch. We first identify a multi-target learning conflict in the calibrating process, which arises when optimizing variables across time steps, leading to the underutilization of the model's learning capabilities. To address this issue, we propose an innovative calibrating strategy called Socket+Plug (SoP). This approach retains an exclusive optimizer and early-stopping monitor for each predicted target within each Plug while keeping the fully trained Socket backbone frozen. The model-agnostic nature of SoP allows it to directly calibrate the performance of any trained deep forecasting models, regardless of their specific architectures. Extensive experiments on various time series benchmarks and a spatio-temporal meteorological ERA5 dataset demonstrate the effectiveness of SoP, achieving up to a 22% improvement even when employing a simple MLP as the Plug (highlighted in Figure 1). Code is available at https://github.com/hanyuki23/SoP.
- Abstract(参考訳): 深層学習に基づくアプローチは時系列予測において顕著な進歩を示している。
これらの発展にもかかわらず、時系列の複雑な力学は、黄金のモデルアーキテクチャを設計するための親指の規則を確立することを困難にしている。
本研究では,新たなモデルをゼロから開発・訓練するのではなく,資源コストの最小化によって,既存の高度なモデルを統一的キャリブレーション戦略により改良することで,実質的なメリットが得られることを論じる。
まず,時間ステップにまたがって変数を最適化する場合に発生する,校正プロセスにおける多目的学習競合を同定し,モデルの学習能力を未利用にする。
そこで我々はSocket+Plug (SoP) と呼ばれる革新的な校正戦略を提案する。
このアプローチは、完全にトレーニングされたSocketバックボーンを凍結したまま、各Plug内の予測対象毎に排他的オプティマイザと早期停止モニタを保持する。
SoPのモデルに依存しない性質により、特定のアーキテクチャに関係なく、訓練された深い予測モデルのパフォーマンスを直接調整することができる。
様々な時系列ベンチマークと時空間気象ERA5データセットによる広範囲な実験によりSoPの有効性が示され、単純なMLPをPlugとして使用しても最大22%の改善が達成された(図1)。
コードはhttps://github.com/hanyuki23/SoP.comで入手できる。
関連論文リスト
- PTMs-TSCIL Pre-Trained Models Based Class-Incremental Learning [7.784244204592032]
時系列データのためのクラスインクリメンタルラーニング(CIL)は、新たな知識獲得のための破滅的な忘れと可塑性に対する安定性のバランスをとる上で、課題に直面している。
PTMを用いた時系列クラスインクリメンタルラーニング(TSCIL)の第1回研究について紹介する。
論文 参考訳(メタデータ) (2025-03-10T10:27:21Z) - Enhancing Foundation Models for Time Series Forecasting via Wavelet-based Tokenization [74.3339999119713]
我々はウェーブレットベースのトークンーザを開発し、時間局所化周波数の空間でモデルが複雑な表現を直接学習できるようにする。
提案手法は,まず入力時系列をスケール・分解し,次に閾値を設定し,ウェーブレット係数を定量化し,最後に予測水平方向の係数を予測する自己回帰モデルを事前学習する。
論文 参考訳(メタデータ) (2024-12-06T18:22:59Z) - FlowScope: Enhancing Decision Making by Time Series Forecasting based on Prediction Optimization using HybridFlow Forecast Framework [0.0]
時系列予測は気象学、小売、医療、金融などいくつかの分野において重要である。
本稿では,時系列データを予測するための汎用的で堅牢なプラットフォームであるFlowScopeを提案する。
これにより、企業に対して、インフォームドな意思決定と、パフォーマンスの最大化のための長期的な戦略を最適化することが可能になる。
論文 参考訳(メタデータ) (2024-11-16T06:25:30Z) - AALF: Almost Always Linear Forecasting [3.336367986372977]
我々は、単純なモデルはたいていの場合十分良いものであり、少数の重要な予測に対してのみDeep Learningメソッドを選択することで、予測性能を改善することができると論じる。
実世界の様々なデータセットに関する実証的研究により、我々の選択手法は、ほとんどの場合、最先端のオンラインモデル選択手法に匹敵する性能を示した。
ほぼ常に単純な自己回帰線形モデルを選択して、結果の競合性能を予測できることが分かる。
論文 参考訳(メタデータ) (2024-09-16T10:13:09Z) - ReAugment: Model Zoo-Guided RL for Few-Shot Time Series Augmentation and Forecasting [74.00765474305288]
本稿では,時系列データ拡張のための強化学習(RL)の試験的検討を行う。
我々の手法であるReAugmentは、トレーニングセットのどの部分が拡張されるべきか、どのように拡張を行うべきか、RLがプロセスにどのような利点をもたらすのか、という3つの重要な問題に取り組む。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Embedded feature selection in LSTM networks with multi-objective
evolutionary ensemble learning for time series forecasting [49.1574468325115]
本稿では,Long Short-Term Memory Networkに埋め込まれた特徴選択手法を提案する。
本手法はLSTMの重みと偏りを分割的に最適化する。
イタリアとスペイン南東部の大気質時系列データの実験的評価により,従来のLSTMの能力一般化が著しく向上することが確認された。
論文 参考訳(メタデータ) (2023-12-29T08:42:10Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - TACTiS-2: Better, Faster, Simpler Attentional Copulas for Multivariate Time Series [57.4208255711412]
パウラ理論に基づいて,最近導入されたトランスフォーマーに基づく注目パウラ(TACTiS)の簡易な目的を提案する。
結果から,実世界の予測タスクにまたがって,このモデルのトレーニング性能が大幅に向上し,最先端のパフォーマンスが達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T16:45:19Z) - Meta-Forecasting by combining Global DeepRepresentations with Local
Adaptation [12.747008878068314]
メタグローバルローカル自動回帰(Meta-GLAR)と呼ばれる新しい予測手法を導入する。
それは、リカレントニューラルネットワーク(RNN)によって生成された表現からワンステップアヘッド予測へのマッピングをクローズドフォームで学習することで、各時系列に適応する。
本手法は,先行研究で報告されたサンプル外予測精度において,最先端の手法と競合する。
論文 参考訳(メタデータ) (2021-11-05T11:45:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。