論文の概要: TimeSqueeze: Dynamic Patching for Efficient Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2603.11352v1
- Date: Wed, 11 Mar 2026 22:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.699655
- Title: TimeSqueeze: Dynamic Patching for Efficient Time Series Forecasting
- Title(参考訳): TimeSqueeze: 効率的な時系列予測のための動的パッチ
- Authors: Sravan Kumar Ankireddy, Nikita Seleznev, Nam H. Nguyen, Yulun Wu, Senthil Kumar, Furong Huang, C. Bayan Bruss,
- Abstract要約: TimeSqueezeは動的パッチ機構で、ローカル信号の複雑さに基づいて各シーケンス内のパッチ境界を適応的に選択する。
TimeSqueezeは、同等のポイントツーケンベースラインに比べて最大20倍高速収束と8倍高いデータ効率を実現している。
- 参考スコア(独自算出の注目度): 46.671658381710785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformer-based time series foundation models face a fundamental trade-off in choice of tokenization: point-wise embeddings preserve temporal fidelity but scale poorly with sequence length, whereas fixed-length patching improves efficiency by imposing uniform boundaries that may disrupt natural transitions and blur informative local dynamics. In order to address these limitations, we introduce TimeSqueeze, a dynamic patching mechanism that adaptively selects patch boundaries within each sequence based on local signal complexity. TimeSqueeze first applies a lightweight state-space encoder to extract full-resolution point-wise features, then performs content-aware segmentation by allocating short patches to information-dense regions and long patches to smooth or redundant segments. This variable-resolution compression preserves critical temporal structure while substantially reducing the token sequence presented to the Transformer backbone. Specifically for large-scale pretraining, TimeSqueeze attains up to 20x faster convergence and 8x higher data efficiency compared to equivalent point-token baselines. Experiments across long-horizon forecasting benchmarks show that TimeSqueeze consistently outperforms comparable architectures that use either point-wise tokenization or fixed-size patching.
- Abstract(参考訳): ポイントワイド埋め込みは時間的忠実さは保たれるが、シーケンス長に乏しいが、固定長のパッチングは、自然な遷移を妨害し、情報的局所力学を曖昧にするような均一な境界を課すことによって効率を向上させる。
このような制限に対処するため,ローカル信号の複雑さに基づいて各シーケンス内のパッチ境界を適応的に選択する動的パッチ機構であるTimeSqueezeを導入する。
TimeSqueezeはまず、軽量なステートスペースエンコーダを適用して、完全解像度のポイントワイズ機能を抽出し、その後、短いパッチを情報密度領域に、長いパッチをスムーズまたは冗長なセグメントに割り当てることで、コンテンツ認識セグメンテーションを実行する。
この可変解像度圧縮は、Transformerバックボーンに提示されるトークンシーケンスを著しく低減しつつ、臨界時間構造を保存する。
特に大規模な事前トレーニングでは、TimeSqueezeは、同等のポイントツーケンベースラインに比べて最大20倍高速収束と8倍高いデータ効率を実現している。
長期の予測ベンチマークによる実験では、TimeSqueezeはポイントワイドトークン化または固定サイズのパッチングを使用する、同等のアーキテクチャを一貫して上回っている。
関連論文リスト
- Forecasting as Rendering: A 2D Gaussian Splatting Framework for Time Series Forecasting [79.37674445572462]
時系列予測(TSF)は、周期内変動と周期間トレンドの複雑な絡み合いのため、依然として困難な問題である。
形状変化テンソルを静止画像として扱うと、トポロジカルミスマッチが発生する。
均一な固定サイズの表現に依存することは、モデリング能力を非効率に割り当てる。
TimeGSは、予測パラダイムをレグレッションから2D生成レンダリングに根本的にシフトする、新しいフレームワークである。
論文 参考訳(メタデータ) (2026-02-10T14:13:36Z) - Patch-Level Tokenization with CNN Encoders and Attention for Improved Transformer Time-Series Forecasting [0.0]
本稿では,局所的時間的表現学習をグローバル依存モデルから分離する2段階予測フレームワークを提案する。
畳み込みニューラルネットワークは、固定長の時間的パッチで動作し、短距離時間的ダイナミクスと非線形特徴相互作用を抽出する。
その後、Transformerエンコーダがパッチ間の時間依存性をモデル化し、予測を生成する。
論文 参考訳(メタデータ) (2026-01-18T16:16:01Z) - PPMStereo: Pick-and-Play Memory Construction for Consistent Dynamic Stereo Matching [51.98089287914147]
textbfPick-and-textbflay textbfMemory (PM) construction module for dynamic bfStereo matching, called bftextPPMStereo。
bftextPPMStereo と呼ばれる動的 bfStereo マッチングのための textbfPick-and-textbflay textbfMemory (PM) 構築モジュールを提案する。
論文 参考訳(メタデータ) (2025-10-23T03:52:39Z) - EntroPE: Entropy-Guided Dynamic Patch Encoder for Time Series Forecasting [50.794700596484894]
IntroPE(Entropy-Guided Dynamic Patch)は,条件付きエントロピーによる遷移点を動的に検出する新しい時間情報フレームワークである。
これは、パッチの計算上の利点を維持しながら、時間構造を保存する。
長期予測ベンチマークによる実験では、EntroPEは精度と効率の両方を改善している。
論文 参考訳(メタデータ) (2025-09-30T12:09:56Z) - Kairos: Towards Adaptive and Generalizable Time Series Foundation Models [27.076542021368056]
時系列基礎モデル (TSFM) は時系列解析の強力なパラダイムとして登場してきた。
動的パッチトークンとインスタンス適応型位置埋め込みを統合した,柔軟なTSFMフレームワークであるKairosを提案する。
Kairosは2つの共通ゼロショットベンチマークのパラメータをはるかに少なくして、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-09-30T06:02:26Z) - Efficient Pretraining Length Scaling [21.4715211093876]
本稿では,事前学習時に効率よく長さのスケーリングを可能にする新しいフレームワークであるParallel Hidden Decoding Transformer(textitPHD-Transformer)を提案する。
textitPHD-Transformerは、オリジナルのトークンと隠された復号トークンを区別する革新的なKVキャッシュ管理戦略を通じてこれを実現している。
論文 参考訳(メタデータ) (2025-04-21T09:41:26Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Leveraging 2D Information for Long-term Time Series Forecasting with Vanilla Transformers [55.475142494272724]
時系列予測は、様々な領域における複雑な力学の理解と予測に不可欠である。
GridTSTは、革新的な多方向性の注意を用いた2つのアプローチの利点を組み合わせたモデルである。
このモデルは、さまざまな現実世界のデータセットに対して、常に最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-05-22T16:41:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。