論文の概要: Accelerating Time Series Foundation Models with Speculative Decoding
- arxiv url: http://arxiv.org/abs/2511.18191v1
- Date: Sat, 22 Nov 2025 21:04:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.682663
- Title: Accelerating Time Series Foundation Models with Speculative Decoding
- Title(参考訳): 投機的復号化による時系列基礎モデルの高速化
- Authors: Pranav Subbaraman, Fang Sun, Yue Yao, Huacong Tang, Xiao Luo, Yizhou Sun,
- Abstract要約: 大規模トランスフォーマーベースのモデルは、時系列予測において最先端のパフォーマンスを達成したが、高い計算コストに悩まされている。
本稿では、投機的復号化を自己回帰時系列モデルに適応させる一般的な推論加速フレームワークを提案する。
我々のアプローチでは、より小さな"ドラフト"モデルを用いて、将来の時系列パッチを提案し、さらに大きな"ターゲット"モデルによって並列に検証する。
- 参考スコア(独自算出の注目度): 46.99742287518152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern web applications--from real-time content recommendation and dynamic pricing to CDN optimization--increasingly rely on time-series forecasting to deliver personalized experiences to billions of users. Large-scale Transformer-based models have achieved state-of-the-art performance in time-series forecasting but suffer from high computational costs, limiting their deployment in latency-sensitive web applications. To address this challenge, we propose a general inference acceleration framework that adapts speculative decoding to autoregressive time-series models. Our approach employs a smaller "draft" model to propose future time-series patches, which are then verified in parallel by a larger "target" model, reducing the number of sequential forward passes required. We address key technical challenges in adapting this technique from discrete language tokens to continuous time-series distributions, including the design of acceptance criteria for multivariate Gaussian patches and practical variants that balance efficiency with accuracy. Through experiments on time series forecasting benchmarks relevant to web applications, we demonstrate significant inference speedups while maintaining competitive accuracy. The framework requires no architectural modifications to existing foundation models, making it immediately applicable to accelerate deployed time-series forecasting systems. Our implementation can be found at https://github.com/PranavSubbaraman/STRIDE
- Abstract(参考訳): リアルタイムコンテンツレコメンデーションや動的価格設定からCDN最適化に至るまで、現代のWebアプリケーションは、数十億のユーザにパーソナライズされたエクスペリエンスを提供するために、時系列予測に依存している。
大規模トランスフォーマーベースのモデルは、時系列予測において最先端のパフォーマンスを達成したが、高い計算コストに悩まされ、レイテンシに敏感なWebアプリケーションへのデプロイが制限された。
この課題に対処するために、投機的復号化を自己回帰時系列モデルに適応させる一般的な推論加速フレームワークを提案する。
われわれのアプローチでは、より小さな"ドラフト"モデルを用いて、将来の時系列パッチを提案し、さらに大きな"ターゲット"モデルによって並列に検証し、必要なシーケンシャルな転送パスの数を減らす。
本稿では,この手法を離散言語トークンから連続時系列分布に適用する上で,多変量ガウスパッチの受け入れ基準の設計や,効率と精度のバランスをとる実用的な変種など,重要な技術的課題に対処する。
Webアプリケーションに関連する時系列予測ベンチマークの実験を通じて、競合精度を維持しながら、かなりの推論スピードアップを示す。
このフレームワークは既存の基盤モデルにアーキテクチャ上の変更を加える必要はなく、デプロイされた時系列予測システムの高速化に即座に適用できる。
私たちの実装はhttps://github.com/PranavSubbaraman/STRIDEで確認できます。
関連論文リスト
- A Unified Frequency Domain Decomposition Framework for Interpretable and Robust Time Series Forecasting [81.73338008264115]
時系列予測の現在のアプローチは、時間領域であれ周波数領域であれ、主に線形層やトランスフォーマーに基づいたディープラーニングモデルを使用する。
本稿では,多種多様な時系列を数学的に抽象化する統合周波数領域分解フレームワークFIREを提案する。
火は長期予測ベンチマークで最先端のモデルを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-11T09:59:25Z) - KAIROS: Unified Training for Universal Non-Autoregressive Time Series Forecasting [6.312575071507716]
KAIROSは非自己回帰時系列予測フレームワークである。
自動回帰アプローチとは異なり、KAIROSはエラーの蓄積を回避し、ジャスト・イン・タイム推論を実現する。
論文 参考訳(メタデータ) (2025-10-02T14:50:50Z) - A Comparative Study of Pruning Methods in Transformer-based Time Series Forecasting [0.07916635054977067]
プルーニングは、ニューラルネットワークのパラメータ数を削減し、計算を保存するための確立されたアプローチである。
本研究では,これらのプルーニング戦略がモデルサイズ,演算,推論時間などの予測性能および計算面に与える影響について検討する。
ハードウェアとソフトウェアが対応する場合でも、構造化プルーニングは大幅な時間節約を達成できないことを実証する。
論文 参考訳(メタデータ) (2024-12-17T13:07:31Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - Time Series Continuous Modeling for Imputation and Forecasting with Implicit Neural Representations [15.797295258800638]
本稿では,実世界のデータでしばしば発生する課題に対処するために,時系列計算と予測のための新しいモデリング手法を提案する。
本手法はシリーズの進化力学の連続時間依存モデルに依存する。
メタラーニングアルゴリズムによって駆動される変調機構は、観測されたタイムウインドウを超えて、見えないサンプルや外挿への適応を可能にする。
論文 参考訳(メタデータ) (2023-06-09T13:20:04Z) - Persistence Initialization: A novel adaptation of the Transformer
architecture for Time Series Forecasting [0.7734726150561088]
時系列予測は多くの実世界の応用において重要な問題である。
本稿では,時系列予測のタスクに着目したトランスフォーマーアーキテクチャの新たな適応を提案する。
ReZero正規化とロータリー位置符号化を備えたデコーダトランスを用いるが、この適応は任意の自己回帰型ニューラルネットワークモデルに適用できる。
論文 参考訳(メタデータ) (2022-08-30T13:04:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。