論文の概要: TSGym: Design Choices for Deep Multivariate Time-Series Forecasting
- arxiv url: http://arxiv.org/abs/2509.17063v1
- Date: Sun, 21 Sep 2025 12:49:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.09575
- Title: TSGym: Design Choices for Deep Multivariate Time-Series Forecasting
- Title(参考訳): TSGym:多変量時系列予測のための設計選択
- Authors: Shuang Liang, Chaochuan Hou, Xu Yao, Shiping Wang, Minqi Jiang, Songqiao Han, Hailiang Huang,
- Abstract要約: この作業は、深いMTSFメソッドをそのコアできめ細かいコンポーネントに分解することでギャップを埋める。
MTSFタスクのためのTSGymと呼ばれる新しい自動化ソリューションを提案する。
大規模な実験により、TSGymは既存のMTSF法やAutoML法よりも大幅に優れていることが示された。
- 参考スコア(独自算出の注目度): 38.12202305030755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, deep learning has driven significant advancements in multivariate time series forecasting (MTSF) tasks. However, much of the current research in MTSF tends to evaluate models from a holistic perspective, which obscures the individual contributions and leaves critical issues unaddressed. Adhering to the current modeling paradigms, this work bridges these gaps by systematically decomposing deep MTSF methods into their core, fine-grained components like series-patching tokenization, channel-independent strategy, attention modules, or even Large Language Models and Time-series Foundation Models. Through extensive experiments and component-level analysis, our work offers more profound insights than previous benchmarks that typically discuss models as a whole. Furthermore, we propose a novel automated solution called TSGym for MTSF tasks. Unlike traditional hyperparameter tuning, neural architecture searching or fixed model selection, TSGym performs fine-grained component selection and automated model construction, which enables the creation of more effective solutions tailored to diverse time series data, therefore enhancing model transferability across different data sources and robustness against distribution shifts. Extensive experiments indicate that TSGym significantly outperforms existing state-of-the-art MTSF and AutoML methods. All code is publicly available on https://github.com/SUFE-AILAB/TSGym.
- Abstract(参考訳): 近年,深層学習は多変量時系列予測(MTSF)タスクにおいて顕著な進歩を遂げている。
しかし、MTSFにおける現在の研究の多くは、全体論的観点からモデルを評価する傾向にあり、個々の貢献を曖昧にし、重要な問題を未解決のまま残している。
現在のモデリングパラダイムに従うことで、この作業は、深層MTSFメソッドをそのコアに体系的に分解し、シリーズパッチのトークン化、チャネルに依存しない戦略、アテンションモジュール、さらには大規模言語モデルや時系列ファンデーションモデルのようなきめ細かいコンポーネントにすることで、これらのギャップを埋めます。
広範な実験とコンポーネントレベルの分析を通じて、我々の研究は、通常モデル全体を議論する以前のベンチマークよりも深い洞察を提供する。
さらに,MTSFタスクのためのTSGymという新しい自動解を提案する。
従来のハイパーパラメータチューニングやニューラルアーキテクチャ探索、固定モデル選択とは異なり、TSGymはきめ細かなコンポーネント選択と自動モデル構築を実行する。
大規模な実験により、TSGymは既存のMTSF法やAutoML法よりも大幅に優れていることが示された。
すべてのコードはhttps://github.com/SUFE-AILAB/TSGymで公開されている。
関連論文リスト
- Multi-Scale Finetuning for Encoder-based Time Series Foundation Models [56.503053716053]
時系列基礎モデル (TSFM) は, 時系列予測において印象的なゼロショット性能を示す。
我々は、TSFMの能力を十分に活用するに足りず、しばしば過度な適合と準最適性能をもたらすと論じている。
マルチスケールモデリングをファインタニングプロセスに明示的に統合するシンプルなフレームワークであるtextbftextscfinetextbftextsctuning (textbfMSFT)を提案する。
論文 参考訳(メタデータ) (2025-06-17T01:06:01Z) - TSFM-Bench: A Comprehensive and Unified Benchmark of Foundation Models for Time Series Forecasting [35.505530132151]
時系列予測(TSF)は、金融投資、気象サービス、エネルギー管理など、多くの分野で重要な機能である。
多くのTSFメソッドはドメイン固有のデータ収集とモデルトレーニングを必要とし、他のドメインに適用してもうまく一般化しない。
大規模な異種時系列データに基づいて事前訓練された時系列基礎モデル(TSFM)は、これらの制限を克服することを目的としている。
論文 参考訳(メタデータ) (2024-10-15T17:23:49Z) - TimeDiT: General-purpose Diffusion Transformers for Time Series Foundation Model [11.281386703572842]
TimeDiTは時間依存性学習と確率的サンプリングを組み合わせた拡散トランスフォーマーモデルである。
TimeDiTは、さまざまなタスクにわたるトレーニングと推論プロセスを調和させるために、統一的なマスキングメカニズムを採用している。
我々の体系的評価は、ゼロショット/ファインチューニングによる予測と計算という基本的なタスクにおいて、TimeDiTの有効性を示す。
論文 参考訳(メタデータ) (2024-09-03T22:31:57Z) - LTSM-Bundle: A Toolbox and Benchmark on Large Language Models for Time Series Forecasting [69.33802286580786]
LTSM-Bundleは総合的なツールボックスであり、LTSMをトレーニングするためのベンチマークである。
複数の次元からLTSMをモジュール化し、ベンチマークし、プロンプト戦略、トークン化アプローチ、ベースモデルの選択、データ量、データセットの多様性を含む。
実験により、この組み合わせは最先端のLTSMや従来のTSF法と比較して、ゼロショットと少数ショットのパフォーマンスが優れていることが示された。
論文 参考訳(メタデータ) (2024-06-20T07:09:19Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - ConvTimeNet: A Deep Hierarchical Fully Convolutional Model for Multivariate Time Series Analysis [7.979501926410114]
ConvTimeNetは時系列解析のために設計された階層的な純粋な畳み込みモデルである。
データ駆動方式で時間依存の基本単位の局所パターンを適応的に知覚する。
大規模なカーネル機構を使用して、畳み込みブロックが深く積み重ねられるようにする。
論文 参考訳(メタデータ) (2024-03-03T12:05:49Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。