論文の概要: Xihe: Scalable Zero-Shot Time Series Learner Via Hierarchical Interleaved Block Attention
- arxiv url: http://arxiv.org/abs/2510.21795v1
- Date: Mon, 20 Oct 2025 11:10:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 00:22:00.528795
- Title: Xihe: Scalable Zero-Shot Time Series Learner Via Hierarchical Interleaved Block Attention
- Title(参考訳): Xihe: 階層型インターリーブブロック注意によるスケーラブルなゼロショット時系列学習
- Authors: Yinbo Sun, Yuchen Fang, Zhibo Zhu, Jia Li, Yu Liu, Qiwen Deng, Jun Zhou, Hang Yu, Xingyu Lu, Lintao Ma,
- Abstract要約: 階層型インターリーブドブロック注意(HIBA)を提案する。
超効率な9.5Mパラメータ構成から高容量1.5Bまで、スケーラブルなTSFMファミリーであるXiheを紹介する。
Xihe-maxは、最先端のゼロショットのパフォーマンスを新たに確立し、以前の最高の結果を実質的なマージンで上回っている。
- 参考スコア(独自算出の注目度): 35.34276815693167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement of time series foundation models (TSFMs) has been propelled by migrating architectures from language models. While existing TSFMs demonstrate impressive performance, their direct adoption of cross-domain architectures constrains effective capture of multiscale temporal dependencies inherent to time series data. This limitation becomes particularly pronounced during zero-shot transfer across datasets with divergent underlying patterns and sampling strategies. To address these challenges, we propose Hierarchical Interleaved Block Attention (HIBA) which employs hierarchical inter- and intra-block sparse attention to effectively capture multi-scale dependencies. Intra-block attention facilitates local information exchange, and inter-block attention operates across blocks to capture global temporal pattern interaction and dynamic evolution. Leveraging the HIBA architecture, we introduce Xihe, a scalable TSFM family spanning from an ultra-efficient 9.5M parameter configuration to high-capacity 1.5B variant. Evaluated on the comprehensive GIFT-Eval benchmark, our most compact Xihe-tiny model (9.5M) surpasses the majority of contemporary TSFMs, demonstrating remarkable parameter efficiency. More impressively, Xihe-max (1.5B) establishes new state-of-the-art zero-shot performance, surpassing previous best results by a substantial margin. This consistent performance excellence across the entire parameter spectrum provides compelling evidence for the exceptional generalization capabilities and architectural superiority of HIBA.
- Abstract(参考訳): 時系列基礎モデル(TSFM)の急速な進歩は、言語モデルからのアーキテクチャの移行によって促進されている。
既存のTSFMは素晴らしい性能を示すが、クロスドメインアーキテクチャの直接的な採用は、時系列データに固有のマルチスケールの時間的依存関係を効果的にキャプチャすることを制約している。
この制限は、下位のパターンとサンプリング戦略の異なるデータセット間のゼロショット転送中に特に顕著になる。
これらの課題に対処するため,階層的インターリーブド・ブロック・アテンション(HIBA)を提案する。
ブロック内アテンションは局所的な情報交換を促進し、ブロック間アテンションはブロック間で動作し、グローバルな時間的パターンの相互作用と動的進化を捉える。
HIBAアーキテクチャを活用することで、超効率な9.5Mパラメータ構成から高容量1.5Bまで、スケーラブルなTSFMファミリーであるXiheを導入する。
我々の最もコンパクトなXihe-tinyモデル(9.5M)は、総合的なGIFT-Evalベンチマークに基づいて評価され、現代のTSFMの大多数を超え、顕著なパラメータ効率を示している。
より印象的なことに、Xihe-max (1.5B)は、最先端のゼロショットのパフォーマンスを確立し、以前の最高の結果をかなりの差で上回っている。
このパラメータスペクトル全体の一貫した性能の卓越性は、HIBAの例外的な一般化能力とアーキテクチャ上の優位性を示す説得力のある証拠となる。
関連論文リスト
- Blockwise Flow Matching: Improving Flow Matching Models For Efficient High-Quality Generation [33.177998521195114]
フローマッチングモデルは、幅広い領域にわたる高忠実性データ生成の境界を押し上げている。
生成軌道を複数の時間セグメントに分割する新しいフレームワークであるBlockwise Flow Matching (BFM)を提案する。
BFMは2.1倍から4.9倍の高速化を実現している。
論文 参考訳(メタデータ) (2025-10-24T05:41:23Z) - VRS-UIE: Value-Driven Reordering Scanning for Underwater Image Enhancement [104.78586859995333]
状態空間モデル(SSM)は、線形複雑性と大域的受容場のために、視覚タスクの有望なバックボーンとして登場した。
大型で均質だが無意味な海洋背景の優位性は、希少で価値ある標的の特徴表現応答を希薄にすることができる。
水中画像強調(UIE)のための新しい値駆動リダクションスキャンフレームワークを提案する。
本フレームワークは, 水バイアスを効果的に抑制し, 構造や色彩の忠実さを保ち, 優れた向上性能(WMambaを平均0.89dB超える)を実現する。
論文 参考訳(メタデータ) (2025-05-02T12:21:44Z) - FreSca: Scaling in Frequency Space Enhances Diffusion Models [55.75504192166779]
本稿では,潜時拡散モデルにおける周波数制御について検討する。
本稿では,低周波成分と高周波成分にノイズ差を分解する新しいフレームワークFreScaを紹介する。
FreScaはモデルの再トレーニングやアーキテクチャの変更なしに動作し、モデルとタスクに依存しない制御を提供する。
論文 参考訳(メタデータ) (2025-04-02T22:03:11Z) - UltraSTF: Ultra-Compact Model for Large-Scale Spatio-Temporal Forecasting [34.03281105180512]
我々は,超コンパクトな形状のバンクコンポーネントとクロス周期予測コンポーネントを統合したUltraSTFを提案する。
本モデルでは,形状バンク成分の注意機構を用いて時系列の繰り返しパターンを効率的にキャプチャする。
UltraSTFは、LargeSTベンチマークの最先端のパフォーマンスを達成し、第2のベストメソッドで要求されるパラメータの0.2%未満を活用している。
論文 参考訳(メタデータ) (2025-02-28T01:35:51Z) - Higher-order Cross-structural Embedding Model for Time Series Analysis [12.35149125898563]
時系列分析は、医療、金融、センサーネットワークといった様々な分野における重要な応用のために、注目されている。
現在のアプローチでは、時系列内の高次相互作用をモデル化し、時間的あるいは空間的依存関係を別々に学習することに注力しています。
本稿では,時間的視点と空間的視点の両方を協調的にモデル化する新しいフレームワークであるHigh-TS(Higher-order Cross-structural Embedding Model for Time Series)を提案する。
論文 参考訳(メタデータ) (2024-10-30T12:51:14Z) - UmambaTSF: A U-shaped Multi-Scale Long-Term Time Series Forecasting Method Using Mamba [7.594115034632109]
本稿では,新しい時系列予測フレームワークであるUmambaTSFを提案する。
U字型エンコーダ・デコーダ多層パーセプトロン(MLP)のマルチスケール特徴抽出機能とMambaのロングシーケンス表現を統合する。
UmambaTSFは、広く使用されているベンチマークデータセットで最先端のパフォーマンスと優れた汎用性を達成する。
論文 参考訳(メタデータ) (2024-10-15T04:56:43Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。