論文の概要: TFMAdapter: Lightweight Instance-Level Adaptation of Foundation Models for Forecasting with Covariates
- arxiv url: http://arxiv.org/abs/2509.13906v1
- Date: Wed, 17 Sep 2025 11:13:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.828637
- Title: TFMAdapter: Lightweight Instance-Level Adaptation of Foundation Models for Forecasting with Covariates
- Title(参考訳): TFMAdapter:共変量予測のための基礎モデルの軽量インスタンスレベル適応
- Authors: Afrin Dange, Sunita Sarawagi,
- Abstract要約: 時系列基礎モデル(TSFM)は、最近、新しい時系列の単変量予測において最先端のパフォーマンスを達成した。
我々は,TSFMを微調整なしで共変情報で拡張する,軽量なインスタンスレベルのアダプタであるFMAdapterを提案する。
実世界のデータセットに関する大規模な実験は、FMAdapterがファンデーションモデルと教師付きベースラインの両方を一貫して上回っていることを示している。
- 参考スコア(独自算出の注目度): 21.978694988304692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time Series Foundation Models (TSFMs) have recently achieved state-of-the-art performance in univariate forecasting on new time series simply by conditioned on a brief history of past values. Their success demonstrates that large-scale pretraining across diverse domains can acquire the inductive bias to generalize from temporal patterns in a brief history. However, most TSFMs are unable to leverage covariates -- future-available exogenous variables critical for accurate forecasting in many applications -- due to their domain-specific nature and the lack of associated inductive bias. We propose TFMAdapter, a lightweight, instance-level adapter that augments TSFMs with covariate information without fine-tuning. Instead of retraining, TFMAdapter operates on the limited history provided during a single model call, learning a non-parametric cascade that combines covariates with univariate TSFM forecasts. However, such learning would require univariate forecasts at all steps in the history, requiring too many calls to the TSFM. To enable training on the full historical context while limiting TSFM invocations, TFMAdapter uses a two-stage method: (1) generating pseudo-forecasts with a simple regression model, and (2) training a Gaussian Process regressor to refine predictions using both pseudo- and TSFM forecasts alongside covariates. Extensive experiments on real-world datasets demonstrate that TFMAdapter consistently outperforms both foundation models and supervised baselines, achieving a 24-27\% improvement over base foundation models with minimal data and computational overhead. Our results highlight the potential of lightweight adapters to bridge the gap between generic foundation models and domain-specific forecasting needs.
- Abstract(参考訳): Time Series Foundation Models (TSFMs) は、最近、過去値の簡単な履歴を条件に、新しい時系列の単変量予測において、最先端のパフォーマンスを達成した。
彼らの成功は、様々な領域にまたがる大規模な事前訓練が、短い歴史の中で時間的パターンから一般化する帰納的バイアスを得られることを示している。
しかし、ほとんどのTSFMは、ドメイン固有の性質と関連する帰納バイアスの欠如により、共変量(多くのアプリケーションにおいて正確な予測に不可欠な将来利用可能な外因性変数)を活用できない。
我々は,TSFMを微調整なしで共変情報で拡張する,軽量なインスタンスレベルのアダプタであるFMAdapterを提案する。
再トレーニングの代わりに、TFMAdapterは単一のモデルコール中に提供される制限された履歴に基づいて、共変量と単変量TSFM予測を組み合わせた非パラメトリックカスケードを学習する。
しかし、そのような学習は歴史のあらゆる段階において一様予測を必要とし、TSFMへの呼び出しが多すぎる。
TFMAdapterは、TSFMの呼び出しを制限しながら、完全な歴史的文脈でのトレーニングを可能にするために、(1)単純な回帰モデルで擬似予測を生成し、(2)擬似予測とTSFM予測を併用して予測を洗練するためのガウス過程回帰器を訓練する2段階の手法を用いる。
実世界のデータセットに関する大規模な実験によると、FMAdapterは基礎モデルと教師付きベースラインの両方を一貫して上回り、最小限のデータと計算オーバーヘッドで基礎モデルよりも24~27倍改善されている。
本結果は,汎用基盤モデルとドメイン固有の予測ニーズのギャップを埋めるための軽量アダプタの可能性を強調した。
関連論文リスト
- Bridging the Last Mile of Prediction: Enhancing Time Series Forecasting with Conditional Guided Flow Matching [9.465542901469815]
Conditional Guided Flow Matching (CGFM) は、補助的な予測モデルから出力を統合することで、フローマッチングを拡張するモデルに依存しないフレームワークである。
CGFMは、歴史的データを条件とガイダンスの両方に取り入れ、一方の条件付きパスを使用し、アフィンパスを用いて経路空間を拡大する。
データセットとベースラインにわたる実験は、CGFMが常に最先端のモデルより優れており、予測が進んでいることを示している。
論文 参考訳(メタデータ) (2025-07-09T18:03:31Z) - Multi-Scale Finetuning for Encoder-based Time Series Foundation Models [56.503053716053]
時系列基礎モデル (TSFM) は, 時系列予測において印象的なゼロショット性能を示す。
我々は、TSFMの能力を十分に活用するに足りず、しばしば過度な適合と準最適性能をもたらすと論じている。
マルチスケールモデリングをファインタニングプロセスに明示的に統合するシンプルなフレームワークであるtextbftextscfinetextbftextsctuning (textbfMSFT)を提案する。
論文 参考訳(メタデータ) (2025-06-17T01:06:01Z) - Can Time-Series Foundation Models Perform Building Energy Management Tasks? [5.450531952940644]
エネルギー管理タスクを構築するには、さまざまな時系列データからの処理と学習が必要である。
既存のソリューションは、これらのタスクを実行するために、bespokeタスクとデータ固有のモデルに依存しています。
LLM(Large Language Models)の変革的な成功に触発されて、TSFM(Time-Series Foundation Models)は、これを変える可能性を秘めている。
論文 参考訳(メタデータ) (2025-06-12T19:45:10Z) - Less is More: Unlocking Specialization of Time Series Foundation Models via Structured Pruning [29.377178687865136]
時系列基礎モデル 広大なパラメータを事前訓練し、驚くべきゼロショット予測性能を達成する。
驚くべきことに、微調整後も、TSFMは、フルショットダウンストリームデータでトレーニングされた、より小さな、特殊なモデルよりも一貫してパフォーマンスを向上することはできない。
より関連性が高くコンパクトなパラメータ空間に焦点を合わせることにより、その後の微調整プロセスを正規化するための構造化プルーニング法を提案する。
論文 参考訳(メタデータ) (2025-05-29T07:33:49Z) - Time Series Foundational Models: Their Role in Anomaly Detection and Prediction [0.0]
時系列基礎モデル (TSFM) は時系列予測において注目されている。
本稿では,異常検出および予測タスクにおけるTSFMの有効性を批判的に評価する。
論文 参考訳(メタデータ) (2024-12-26T17:15:30Z) - FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - ReAugment: Model Zoo-Guided RL for Few-Shot Time Series Augmentation and Forecasting [74.00765474305288]
本稿では,時系列データ拡張のための強化学習(RL)の試験的検討を行う。
我々の手法であるReAugmentは、トレーニングセットのどの部分が拡張されるべきか、どのように拡張を行うべきか、RLがプロセスにどのような利点をもたらすのか、という3つの重要な問題に取り組む。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Training Discrete Deep Generative Models via Gapped Straight-Through
Estimator [72.71398034617607]
再サンプリングのオーバーヘッドを伴わずに分散を低減するため, GST (Gapped Straight-Through) 推定器を提案する。
この推定子は、Straight-Through Gumbel-Softmaxの本質的な性質に着想を得たものである。
実験により,提案したGST推定器は,2つの離散的な深部生成モデリングタスクの強いベースラインと比較して,優れた性能を享受できることが示された。
論文 参考訳(メタデータ) (2022-06-15T01:46:05Z) - Improving the Accuracy of Global Forecasting Models using Time Series
Data Augmentation [7.38079566297881]
GFM(Global Forecasting Models)として知られる多くの時系列のセットでトレーニングされた予測モデルは、競争や実世界のアプリケーションを予測する上で有望な結果を示している。
本稿では,GFMモデルのベースライン精度を向上させるための,データ拡張に基づく新しい予測フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-06T13:52:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。