論文の概要: Kairos: Towards Adaptive and Generalizable Time Series Foundation Models
- arxiv url: http://arxiv.org/abs/2509.25826v1
- Date: Tue, 30 Sep 2025 06:02:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.037252
- Title: Kairos: Towards Adaptive and Generalizable Time Series Foundation Models
- Title(参考訳): Kairos: 適応性と一般化可能な時系列基盤モデルを目指して
- Authors: Kun Feng, Shaocheng Lan, Yuchen Fang, Wenchao He, Lintao Ma, Xingyu Lu, Kan Ren,
- Abstract要約: 時系列基礎モデル (TSFM) は時系列解析の強力なパラダイムとして登場してきた。
動的パッチトークンとインスタンス適応型位置埋め込みを統合した,柔軟なTSFMフレームワークであるKairosを提案する。
Kairosは2つの共通ゼロショットベンチマークのパラメータをはるかに少なくして、優れたパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 27.076542021368056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series foundation models (TSFMs) have emerged as a powerful paradigm for time series analysis, driven by large-scale pretraining on diverse data corpora. However, time series inherently exhibit heterogeneous information density over time, influenced by system states and signal complexity, presenting significant modeling challenges especially in a zero-shot scenario. Current TSFMs rely on non-adaptive processing pipelines that fail to capture this dynamic nature. For example, common tokenization strategies such as fixed-size patching enforce rigid observational granularity, limiting their ability to adapt to varying information densities. Similarly, conventional positional encodings impose a uniform temporal scale, making it difficult to model diverse periodicities and trends across series. To overcome these limitations, we propose Kairos, a flexible TSFM framework that integrates a dynamic patching tokenizer and an instance-adaptive positional embedding. Kairos adaptively selects tokenization granularity and tailors positional encodings to the unique characteristics of each time series instance. Trained on a large-scale Predictability-Stratified Time Series (PreSTS) corpus comprising over 300 billion time points and adopting a multi-patch prediction strategy in the inference stage, Kairos achieves superior performance with much fewer parameters on two common zero-shot benchmarks, GIFT-Eval and the Time-Series-Library benchmark, consistently outperforming established methods across diverse tasks. The project page is at https://foundation-model-research.github.io/Kairos .
- Abstract(参考訳): 時系列基礎モデル (TSFM) は、様々なデータコーパスの大規模事前学習によって、時系列解析の強力なパラダイムとして登場した。
しかし、時系列は本質的に時間とともに異質な情報密度を示し、システム状態や信号の複雑さの影響を受け、特にゼロショットシナリオにおいて重要なモデリング課題が提示される。
現在のTSFMは、この動的な性質を捉えるのに失敗する非適応処理パイプラインに依存している。
例えば、固定サイズのパッチングのような共通トークン化戦略は、厳密な観察の粒度を強制し、様々な情報密度に適応する能力を制限する。
同様に、従来の位置エンコーディングは、一様時間スケールを課し、シリーズ全体にわたる様々な周期性や傾向をモデル化することは困難である。
これらの制限を克服するために、動的パッチトークン化器とインスタンス適応型位置埋め込みを統合した柔軟なTSFMフレームワークであるKairosを提案する。
Kairosは、各時系列インスタンスのユニークな特性に対して、トークン化の粒度と位置エンコーディングを適応的に選択する。
300億以上のタイムポイントからなる大規模予測可能性ストレートタイムシリーズ(PreSTS)コーパスでトレーニングされ、推論段階ではマルチパッチ予測戦略を採用し、GIFT-EvalとTime-Series-Libraryベンチマークの2つの共通ゼロショットベンチマークではパラメータがはるかに少なく、優れたパフォーマンスを実現している。
プロジェクトページはhttps://foundation-model-research.github.io/Kairos にある。
関連論文リスト
- Towards Generalisable Time Series Understanding Across Domains [10.350643783811174]
時系列の不均一性を扱うために特別に設計された新しい事前学習パラダイムを導入する。
本稿では、学習可能なドメインシグネチャ、二重マスキング戦略、正規化相互相関損失を持つトークンサを提案する。
私たちのコードと事前訓練されたウェイトはhttps://www.oetu.com/oetu/otis.comで公開されています。
論文 参考訳(メタデータ) (2024-10-09T17:09:30Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - TSCMamba: Mamba Meets Multi-View Learning for Time Series Classification [13.110156202816112]
シフト等分散のような特性を持つパターンを捉えるための新しい多視点手法を提案する。
提案手法は, スペクトル, 時間, 局所, グローバルな特徴を含む多様な特徴を統合して, TSCのリッチで相補的な文脈を得る。
提案手法では,TSCモデルよりも平均精度が4.01-6.45%,7.93%向上した。
論文 参考訳(メタデータ) (2024-06-06T18:05:10Z) - TSLANet: Rethinking Transformers for Time Series Representation Learning [19.795353886621715]
時系列データは、その固有の長短の依存関係によって特徴づけられる。
本稿では,時系列タスクの普遍的畳み込みモデルとして,新しい時系列軽量ネットワーク(TSLANet)を導入する。
我々の実験では、TSLANetは分類、予測、異常検出にまたがる様々なタスクにおいて最先端のモデルよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-04-12T13:41:29Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - DCSF: Deep Convolutional Set Functions for Classification of
Asynchronous Time Series [5.339109578928972]
非同期時系列(Asynchronous Time Series)は、すべてのチャンネルが非同期に独立して観察される時系列である。
本稿では,非同期時系列分類タスクにおいて,高度にスケーラブルでメモリ効率のよい新しいフレームワークを提案する。
我々は、定期的にサンプリングされ、完全に観測される時系列の、密接に関連する問題分類のためによく研究されている畳み込みニューラルネットワークを探索する。
論文 参考訳(メタデータ) (2022-08-24T08:47:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。