論文の概要: FlowState: Sampling Rate Invariant Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2508.05287v2
- Date: Tue, 19 Aug 2025 12:17:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.609698
- Title: FlowState: Sampling Rate Invariant Time Series Forecasting
- Title(参考訳): FlowState: 時間の不変な時系列予測をサンプリングする
- Authors: Lars Graf, Thomas Ortner, Stanisław Woźniak, Angeliki Pantazi,
- Abstract要約: FlowStateは、新しい時系列基礎モデル(TSFM)アーキテクチャである。
本質的に全ての可能な時間分解能を一般化し、予測する地平線を動的に調整する。
GIFT-ZSとChronos-ZSベンチマークの最先端である。
- 参考スコア(独自算出の注目度): 0.7999703756441756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models (FMs) have transformed natural language processing, but their success has not yet translated to time series forecasting. Existing time series foundation models (TSFMs), often based on transformer variants, struggle with generalization across varying context and target lengths, lack adaptability to different sampling rates, and are computationally inefficient. We introduce FlowState, a novel TSFM architecture that addresses these challenges through two key innovations: a state space model (SSM) based encoder and a functional basis decoder. This design enables continuous-time modeling and dynamic time-scale adjustment, allowing FlowState to inherently generalize across all possible temporal resolutions, and dynamically adjust the forecasting horizons. In contrast to other state-of-the-art TSFMs, which require training data across all possible sampling rates to memorize patterns at each scale, FlowState inherently adapts its internal dynamics to the input scale, enabling smaller models, reduced data requirements, and improved efficiency. We further propose an efficient pretraining strategy that improves robustness and accelerates training. Despite being the smallest model, FlowState outperforms all other models and is state-of-the-art for the GIFT-ZS and the Chronos-ZS benchmarks. Ablation studies confirm the effectiveness of its components, and we demonstrate its unique ability to adapt online to varying input sampling rates.
- Abstract(参考訳): ファンデーションモデル(FM)は自然言語処理を変換しているが、その成功は時系列予測にはまだ翻訳されていない。
既存の時系列基礎モデル(TSFM)は、しばしば変圧器の変種に基づいており、様々なコンテキストとターゲットの長さにわたる一般化に苦慮し、異なるサンプリングレートへの適応性が欠如しており、計算的に非効率である。
FlowStateは、状態空間モデル(SSM)ベースのエンコーダと機能基底デコーダという2つの重要なイノベーションを通じて、これらの課題に対処する新しいTSFMアーキテクチャである。
この設計は、連続時間モデリングと動的時間スケールの調整を可能にし、FlowStateは、可能なすべての時間解像度を本質的に一般化し、予測する地平線を動的に調整することができる。
他の最先端のTSFMとは対照的に、FlowStateは内部のダイナミクスを本質的に入力スケールに適応させ、より小さなモデルを可能にし、データ要求を削減し、効率を向上する。
また、ロバスト性を改善し、トレーニングを加速する効率的な事前訓練戦略を提案する。
最小モデルであるにも関わらず、FlowStateは他のモデルよりも優れており、GIFT-ZSとChronos-ZSベンチマークの最先端である。
アブレーション研究により, 成分の有効性が確認され, 様々な入力サンプリングレートにオンラインで適応できることが実証された。
関連論文リスト
- Reprogramming Vision Foundation Models for Spatio-Temporal Forecasting [12.591771385493509]
汎用ロバストネス・時間予測のためのビジョン・ファンデーション・モデル(VFM)を体系的に再プログラミングするフレームワークであるtextST-VFMを提案する。
このフレームワークは、生の入力と補助的なSTフローを統合し、フローは動的キューとして解釈可能な軽量の時間差信号を符号化する。
Emphpre-VFMリプログラミングでは、Temporal-Aware Tokenを使用して、両方のブランチをVFM互換の機能空間に整列させる。
emphpost-VFMリプログラミングでは、分岐間の動的相互作用を可能にするバイラテラルクロスプロンプトコーディネートモジュールが導入されている。
論文 参考訳(メタデータ) (2025-07-14T08:33:34Z) - Time-Aware World Model for Adaptive Prediction and Control [20.139507820478872]
Time-Aware World Model (TAWM) は、時間力学を明示的に組み込んだモデルベースのアプローチである。
TAWMは様々な制御問題にまたがる高頻度および低周波のタスクダイナミクスを学習する。
経験的評価は、TAWMが従来のモデルより一貫して優れていることを示している。
論文 参考訳(メタデータ) (2025-06-10T04:28:11Z) - FLEX: A Backbone for Diffusion-Based Modeling of Spatio-temporal Physical Systems [51.15230303652732]
FLEX (F Low Expert) は、時間物理系の生成モデリングのためのバックボーンアーキテクチャである。
拡散モデルにおける速度場の分散を低減し、トレーニングの安定化に役立つ。
少数の特徴を2つの逆拡散ステップとして用いて、超解像および予測タスクの正確な予測を行う。
論文 参考訳(メタデータ) (2025-05-23T00:07:59Z) - FlowBERT: Prompt-tuned BERT for variable flow field prediction [0.5222978725954347]
本研究では,大言語モデル(LLM)からの知識伝達に基づくユニバーサルフロー場予測フレームワークを提案する。
提案手法は,90%以上の精度を維持しながら予測時間を秒に短縮する。
発達した知識伝達パラダイムは、高速流体力学予測のための新しい方向を確立する。
論文 参考訳(メタデータ) (2025-05-20T02:25:38Z) - Can Test-Time Scaling Improve World Foundation Model? [67.82670175383761]
我々は世界基盤モデル(WFM)に適したテストタイムスケーリングフレームワークであるSWIFTを紹介する。
COSMOSモデルの実証的な結果は、テストタイムのスケーリングが計算-最適方法であっても存在することを示している。
その結果,テストタイムスケーリング法則はWFMに対して有効であり,SWIFTはモデルサイズを調整・増大させることなく,WFM推論を改善するためのスケーラブルで効果的な経路を提供することがわかった。
論文 参考訳(メタデータ) (2025-03-31T17:07:37Z) - FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - Amortized Control of Continuous State Space Feynman-Kac Model for Irregular Time Series [14.400596021890863]
医療、気候、経済などの現実世界のデータセットは、しばしば不規則な時系列として収集される。
本稿では,連続状態空間モデル (ACSSM) を時系列の連続的動的モデリングに用いるためのアモータイズ制御を提案する。
論文 参考訳(メタデータ) (2024-10-08T01:27:46Z) - TimeDiT: General-purpose Diffusion Transformers for Time Series Foundation Model [11.281386703572842]
TimeDiTは時間依存性学習と確率的サンプリングを組み合わせた拡散トランスフォーマーモデルである。
TimeDiTは、さまざまなタスクにわたるトレーニングと推論プロセスを調和させるために、統一的なマスキングメカニズムを採用している。
我々の体系的評価は、ゼロショット/ファインチューニングによる予測と計算という基本的なタスクにおいて、TimeDiTの有効性を示す。
論文 参考訳(メタデータ) (2024-09-03T22:31:57Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Asynchronous Multi-Model Dynamic Federated Learning over Wireless
Networks: Theory, Modeling, and Optimization [20.741776617129208]
分散機械学習(ML)の鍵となる技術として、フェデレートラーニング(FL)が登場した。
まず、システムパラメータが学習性能に与える影響を捉えるために、長方形のスケジューリングステップと関数を定式化する。
我々の分析は、デバイストレーニング変数と非同期スケジューリング決定の協調的影響に光を当てている。
論文 参考訳(メタデータ) (2023-05-22T21:39:38Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。