論文の概要: TiRex: Zero-Shot Forecasting Across Long and Short Horizons with Enhanced In-Context Learning
- arxiv url: http://arxiv.org/abs/2505.23719v1
- Date: Thu, 29 May 2025 17:52:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:08.055427
- Title: TiRex: Zero-Shot Forecasting Across Long and Short Horizons with Enhanced In-Context Learning
- Title(参考訳): TiRex: 文脈内学習の強化による長短ホライズン間のゼロショット予測
- Authors: Andreas Auer, Patrick Podest, Daniel Klotz, Sebastian Böck, Günter Klambauer, Sepp Hochreiter,
- Abstract要約: 文脈内学習は近年,時系列予測に応用されている。
ゼロショット時系列予測の新しいアプローチであるTiRexを紹介する。
TiRexは、HuggingFaceベンチマークのGiftEvalとChronos-ZSで予測するゼロショット時系列で、新しい最先端の技術を設定している。
- 参考スコア(独自算出の注目度): 7.586582726700125
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In-context learning, the ability of large language models to perform tasks using only examples provided in the prompt, has recently been adapted for time series forecasting. This paradigm enables zero-shot prediction, where past values serve as context for forecasting future values, making powerful forecasting tools accessible to non-experts and increasing the performance when training data are scarce. Most existing zero-shot forecasting approaches rely on transformer architectures, which, despite their success in language, often fall short of expectations in time series forecasting, where recurrent models like LSTMs frequently have the edge. Conversely, while LSTMs are well-suited for time series modeling due to their state-tracking capabilities, they lack strong in-context learning abilities. We introduce TiRex that closes this gap by leveraging xLSTM, an enhanced LSTM with competitive in-context learning skills. Unlike transformers, state-space models, or parallelizable RNNs such as RWKV, TiRex retains state-tracking, a critical property for long-horizon forecasting. To further facilitate its state-tracking ability, we propose a training-time masking strategy called CPM. TiRex sets a new state of the art in zero-shot time series forecasting on the HuggingFace benchmarks GiftEval and Chronos-ZS, outperforming significantly larger models including TabPFN-TS (Prior Labs), Chronos Bolt (Amazon), TimesFM (Google), and Moirai (Salesforce) across both short- and long-term forecasts.
- Abstract(参考訳): In-context Learning, 大規模言語モデルのタスク実行能力は, プロンプトで提供された例のみを用いて, 最近, 時系列予測に適応している。
このパラダイムはゼロショット予測を可能にし、過去の値が将来の値を予測するコンテキストとして機能し、非専門家に強力な予測ツールを提供し、トレーニングデータが少ない場合にパフォーマンスを向上する。
既存のゼロショット予測アプローチのほとんどはトランスフォーマーアーキテクチャに依存しており、言語での成功にもかかわらず、LSTMのようなリカレントモデルがしばしばエッジを持つ時系列予測では期待に届かなかった。
逆に、LSTMは状態追跡能力のため時系列モデリングに適しているが、文脈内学習能力は乏しい。
このギャップを埋めるTiRexを導入し,テキスト内学習能力の強化した拡張LSTMであるxLSTMを活用する。
変圧器や状態空間モデル、RWKVのような並列化可能なRNNとは異なり、TiRexは長期予測の重要な特性である状態追跡を維持している。
そこで本研究では,その状態追跡能力を高めるために,CPMと呼ばれるトレーニング時間マスキング戦略を提案する。
TiRexは、HuggingFaceベンチマークのGiftEvalとChronos-ZSをベースとして、ゼロショット時系列の予測を新たに発表した。TabPFN-TS(Prior Labs)、Chronos Bolt(Amazon)、TimeFM(Google)、Moirai(Salesforce)といった、短期および長期の予測よりもはるかに大きなモデルを上回っている。
関連論文リスト
- Test Time Learning for Time Series Forecasting [1.4605709124065924]
テストタイムトレーニング(TTT)モジュールは、MambaベースのTimeMachineなど、最先端モデルよりも一貫して優れている。
その結果,平均二乗誤差 (MSE) と平均絶対誤差 (MAE) に有意な改善が認められた。
この研究は、時系列予測の新しいベンチマークを設定し、スケーラブルで高性能な予測モデルにおける将来の研究の基礎を定めている。
論文 参考訳(メタデータ) (2024-09-21T04:40:08Z) - Chronos: Learning the Language of Time Series [79.38691251254173]
Chronosは事前訓練された確率的時系列モデルのためのフレームワークである。
クロノスモデルでは,様々な領域の時系列データを利用して,未知の予測タスクにおけるゼロショット精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-12T16:53:54Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Tiny Time Mixers (TTMs): Fast Pre-trained Models for Enhanced Zero/Few-Shot Forecasting of Multivariate Time Series [11.635608108358575]
本稿では,効率的な転送学習機能を備えたコンパクトモデルであるTiny Time Mixers (TTM)について紹介する。
TTMには、適応パッチ、多様な解像度サンプリング、およびさまざまなデータセット解像度の事前トレーニングを処理するための解像度プレフィックスチューニングなどのイノベーションが含まれている。
既存のベンチマークでは0/few-shot予測(4-40%)を上回り、計算要求を大幅に削減した。
論文 参考訳(メタデータ) (2024-01-08T15:21:21Z) - Pre-training Enhanced Spatial-temporal Graph Neural Network for
Multivariate Time Series Forecasting [13.441945545904504]
スケーラブルな時系列事前学習モデル(STEP)によりSTGNNが拡張される新しいフレームワークを提案する。
具体的には、非常に長期の歴史時系列から時間パターンを効率的に学習するための事前学習モデルを設計する。
我々のフレームワークは下流のSTGNNを著しく強化することができ、事前学習モデルは時間パターンを適切にキャプチャする。
論文 参考訳(メタデータ) (2022-06-18T04:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。