論文の概要: SVTime: Small Time Series Forecasting Models Informed by "Physics" of Large Vision Model Forecasters
- arxiv url: http://arxiv.org/abs/2510.09780v1
- Date: Fri, 10 Oct 2025 18:42:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.621046
- Title: SVTime: Small Time Series Forecasting Models Informed by "Physics" of Large Vision Model Forecasters
- Title(参考訳): SVTime:大型視覚モデル予測器の「物理」にインフォームされた小型時系列予測モデル
- Authors: ChengAo Shen, Ziming Zhao, Hanghang Tong, Dongjin Song, Dongsheng Luo, Qingsong Wen, Jingchao Ni,
- Abstract要約: 動的Webコンテンツを分析するには時系列AIが不可欠だ。
エネルギー集約的なトレーニング、推論、ハードウェアの要求を考えると、大きなモデルを1フィットのソリューションとして使うと、二酸化炭素のフットプリントと持続可能性に対する深刻な懸念が浮かび上がっています。
本稿では、長期時系列予測(LTSF)のための大型ビジョンモデル(LVM)予測器にインスパイアされた新しい小型モデルSVTimeを紹介する。
- 参考スコア(独自算出の注目度): 86.38433605933515
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series AI is crucial for analyzing dynamic web content, driving a surge of pre-trained large models known for their strong knowledge encoding and transfer capabilities across diverse tasks. However, given their energy-intensive training, inference, and hardware demands, using large models as a one-fits-all solution raises serious concerns about carbon footprint and sustainability. For a specific task, a compact yet specialized, high-performing model may be more practical and affordable, especially for resource-constrained users such as small businesses. This motivates the question: Can we build cost-effective lightweight models with large-model-like performance on core tasks such as forecasting? This paper addresses this question by introducing SVTime, a novel Small model inspired by large Vision model (LVM) forecasters for long-term Time series forecasting (LTSF). Recently, LVMs have been shown as powerful tools for LTSF. We identify a set of key inductive biases of LVM forecasters -- analogous to the "physics" governing their behaviors in LTSF -- and design small models that encode these biases through meticulously crafted linear layers and constraint functions. Across 21 baselines spanning lightweight, complex, and pre-trained large models on 8 benchmark datasets, SVTime outperforms state-of-the-art (SOTA) lightweight models and rivals large models with 10^3 fewer parameters than LVMs, while enabling efficient training and inference in low-resource settings.
- Abstract(参考訳): 時系列AIは、動的Webコンテンツを分析するために不可欠であり、さまざまなタスクにまたがるエンコーディングと転送機能で知られる、トレーニング済みの大規模モデルの急増を招いている。
しかし、そのエネルギー集約的なトレーニング、推論、ハードウェアの要求を踏まえると、大きなモデルをオールフィットのソリューションとして使用すると、二酸化炭素のフットプリントと持続可能性に対する深刻な懸念が生じる。
特定のタスクに対して、コンパクトで専門的でハイパフォーマンスなモデルの方が実用的で手頃な価格になり得る。
予測のようなコアタスクに対して,大規模モデルのようなパフォーマンスを備えた費用効率のよい軽量モデルを構築することができるか?
本稿では,長期時系列予測(LTSF)のための大規模ビジョンモデル(LVM)予測器にインスパイアされた,新しい小型モデルであるSVTimeを導入することにより,この問題に対処する。
最近、LVMはLTSFの強力なツールとして示されています。
LVM 予測器の重要な帰納バイアス - LTSF の振る舞いを管理する "物理学" に類似した -- のセットを特定し、細心の注意を払って構築された線形層と制約関数を通じてこれらのバイアスを符号化する小さなモデルを設計します。
SVTimeは8つのベンチマークデータセット上で、軽量で複雑な、トレーニング済みの大規模モデルにまたがる21のベースラインで、最先端のSOTA(State-of-the-art)モデルを上回っ、LVMよりも10^3少ないパラメータを持つ大規模モデルと競合すると同時に、低リソース設定での効率的なトレーニングと推論を可能にしている。
関連論文リスト
- Revealing the Power of Post-Training for Small Language Models via Knowledge Distillation [43.68215777330875]
我々は,小型モデルの精度を効果的に向上する,系統的な後学習パイプラインを導入する。
結果として得られた命令調整モデルにより、最先端のパフォーマンスが達成される。
この研究は、Ascendエッジデバイス上で高性能言語モデルを開発するための実用的で効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2025-09-30T16:40:55Z) - Time-MoE: Billion-Scale Time Series Foundation Models with Mixture of Experts [25.503695417712997]
Time-MoEは、より大きく、より有能な基礎モデルを予測するために設計された、スケーラブルで統一されたアーキテクチャである。
Time-MoEは、予測毎にネットワークのサブセットだけを活性化することで、計算効率を向上させる。
時系列基礎モデルを24億のパラメータに拡張し,予測精度を大幅に向上させた。
論文 参考訳(メタデータ) (2024-09-24T12:42:18Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。