論文の概要: Tiny-TSM: Efficiently Training a Lightweight SOTA Time Series Foundation Model
- arxiv url: http://arxiv.org/abs/2511.19272v1
- Date: Mon, 24 Nov 2025 16:22:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.311155
- Title: Tiny-TSM: Efficiently Training a Lightweight SOTA Time Series Foundation Model
- Title(参考訳): Tiny-TSM:軽量SOTA時系列基礎モデルの効率的なトレーニング
- Authors: Felix Birkel,
- Abstract要約: 本稿では,小規模,経済訓練,最先端パフォーマンスを特徴とする時系列基礎モデルTiny-TSMを提案する。
新たに合成データ生成とデータ拡張パイプラインを使用して、1週間以内に1つのA100 GPUでトレーニングされた23万のパラメータで構成されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Tiny-TSM, a time series foundation model characterized by small scale, economical training, and state-of-the-art performance. It comprises 23M total parameters, trained on a single A100 GPU in less than a week using a new synthetic data generation and data augmentation pipeline (SynthTS). Without any neural architecture search, hyperparameter tuning, or scaling up model size, Tiny-TSM achieves state-of-the-art performance on a wide range of time series benchmark datasets, often outperforming much larger models and even matching the performance of much larger, industrial-scale, likely highly tuned foundation models. Specifically, Tiny-TSM outperforms all other time series foundation models we evaluated on medium- and long-term forecasting tasks under MSE loss, while short-term accuracy is still competitive with state-of-the-art models. We also introduce a causal input normalization scheme that enables time series models to be trained with dense next-token prediction loss, significantly accelerating convergence speed and reducing training time. All experiments were conducted on a single A100 GPU, illustrating the practicality of the proposed approach in a resource-constrained setting.
- Abstract(参考訳): 本稿では,小規模,経済訓練,最先端パフォーマンスを特徴とする時系列基礎モデルTiny-TSMを提案する。
新たに合成データ生成とデータ拡張パイプライン(SynthTS)を使用して、1週間以内に1つのA100 GPUでトレーニングされた23万のパラメータで構成されている。
Tiny-TSMは、ニューラルネットワーク検索、ハイパーパラメータチューニング、あるいはモデルサイズをスケールアップすることなく、幅広い時系列ベンチマークデータセット上で最先端のパフォーマンスを達成し、多くの場合、より大きなモデルよりも優れ、産業規模、おそらく高度に調整された基礎モデルのパフォーマンスに適合する。
特に、Tiny-TSMは、MSE損失下での中長期予測タスクで評価した他の全ての時系列基礎モデルよりも優れており、短期精度は最先端モデルと競合する。
また,時系列モデルを高密度次トーケン予測損失でトレーニングし,収束速度を著しく向上させ,トレーニング時間を短縮する因果入力正規化手法を提案する。
すべての実験は1つのA100 GPUで行われ、リソース制約された環境で提案されたアプローチの実用性を実証した。
関連論文リスト
- SVTime: Small Time Series Forecasting Models Informed by "Physics" of Large Vision Model Forecasters [86.38433605933515]
動的Webコンテンツを分析するには時系列AIが不可欠だ。
エネルギー集約的なトレーニング、推論、ハードウェアの要求を考えると、大きなモデルを1フィットのソリューションとして使うと、二酸化炭素のフットプリントと持続可能性に対する深刻な懸念が浮かび上がっています。
本稿では、長期時系列予測(LTSF)のための大型ビジョンモデル(LVM)予測器にインスパイアされた新しい小型モデルSVTimeを紹介する。
論文 参考訳(メタデータ) (2025-10-10T18:42:23Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Tiny Time Mixers (TTMs): Fast Pre-trained Models for Enhanced Zero/Few-Shot Forecasting of Multivariate Time Series [11.635608108358575]
本稿では,効率的な転送学習機能を備えたコンパクトモデルであるTiny Time Mixers (TTM)について紹介する。
TTMには、適応パッチ、多様な解像度サンプリング、およびさまざまなデータセット解像度の事前トレーニングを処理するための解像度プレフィックスチューニングなどのイノベーションが含まれている。
既存のベンチマークでは0/few-shot予測(4-40%)を上回り、計算要求を大幅に削減した。
論文 参考訳(メタデータ) (2024-01-08T15:21:21Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。