論文の概要: LightGTS: A Lightweight General Time Series Forecasting Model
- arxiv url: http://arxiv.org/abs/2506.06005v1
- Date: Fri, 06 Jun 2025 11:49:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.454101
- Title: LightGTS: A Lightweight General Time Series Forecasting Model
- Title(参考訳): LightGTS:軽量の一般時系列予測モデル
- Authors: Yihang Wang, Yuying Qiu, Peng Chen, Yang Shu, Zhongwen Rao, Lujia Pan, Bin Yang, Chenjuan Guo,
- Abstract要約: LightGTSは、一貫した周期的モデリングの観点から設計された軽量な汎用時系列予測モデルである。
ゼロショットとフルショットの両方の設定で、9つの実世界のベンチマークで最先端の予測性能を達成する。
- 参考スコア(独自算出の注目度): 16.133297438792926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing works on general time series forecasting build foundation models with heavy model parameters through large-scale multi-source pre-training. These models achieve superior generalization ability across various datasets at the cost of significant computational burdens and limitations in resource-constrained scenarios. This paper introduces LightGTS, a lightweight general time series forecasting model designed from the perspective of consistent periodical modeling. To handle diverse scales and intrinsic periods in multi-source pre-training, we introduce Periodical Tokenization, which extracts consistent periodic patterns across different datasets with varying scales. To better utilize the periodicity in the decoding process, we further introduce Periodical Parallel Decoding, which leverages historical tokens to improve forecasting. Based on the two techniques above which fully leverage the inductive bias of periods inherent in time series, LightGTS uses a lightweight model to achieve outstanding performance on general time series forecasting. It achieves state-of-the-art forecasting performance on 9 real-world benchmarks in both zero-shot and full-shot settings with much better efficiency compared with existing time series foundation models.
- Abstract(参考訳): 大規模マルチソース事前学習による重モデルパラメータを用いたビルド基盤モデルの一般時系列予測に関する研究。
これらのモデルは、リソース制約のあるシナリオにおいて、計算負荷と制限を犠牲にして、様々なデータセットにまたがる優れた一般化能力を実現する。
本稿では、一貫した周期的モデリングの観点から設計された軽量な汎用時系列予測モデルLightGTSを紹介する。
マルチソース事前学習における多様なスケールと本質的な期間を扱うために,様々なスケールのデータセットにまたがる一貫した周期パターンを抽出する周期的トークン化を導入する。
復号化過程における周期性をよりよく活用するために,過去のトークンを利用して予測を改善する周期並列復号法を導入する。
時系列に固有の周期の帰納バイアスを完全に活用する2つの手法に基づいて、LightGTSは、一般的な時系列予測において優れた性能を達成するために軽量モデルを使用する。
ゼロショットとフルショットの両方の設定で、9つの実世界のベンチマークで最先端の予測性能を達成します。
関連論文リスト
- CMoS: Rethinking Time Series Prediction Through the Lens of Chunk-wise Spatial Correlations [13.515201493037917]
超軽量時系列予測モデルであるCMoSを提案する。
CMoSは、異なる時系列チャンク間の空間的相関を直接モデル化する。
論文 参考訳(メタデータ) (2025-05-25T11:01:53Z) - Sundial: A Family of Highly Capable Time Series Foundation Models [64.6322079384575]
Sundialはネイティブでフレキシブルでスケーラブルな時系列基盤モデルのファミリーです。
我々のモデルは、事前の分布を指定せずに事前訓練されており、複数の確率予測を生成することができる。
Sundialは、ジャスト・イン・タイムの推論速度で、ポイントと確率予測ベンチマークの両方で最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-02-02T14:52:50Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Unified Long-Term Time-Series Forecasting Benchmark [0.6526824510982802]
本稿では,時系列予測のための包括的データセットを提案する。
多様な動的システムと実生活記録から得られたデータセットのコレクションを組み込んだ。
多様なシナリオにおいて最も効果的なモデルを決定するために、古典的および最先端のモデルを用いて広範なベンチマーク分析を行う。
本研究は,これらのモデルの性能比較を興味深いものにし,モデルの有効性のデータセット依存性を強調した。
論文 参考訳(メタデータ) (2023-09-27T18:59:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。