論文の概要: Reverso: Efficient Time Series Foundation Models for Zero-shot Forecasting
- arxiv url: http://arxiv.org/abs/2602.17634v1
- Date: Thu, 19 Feb 2026 18:48:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.399958
- Title: Reverso: Efficient Time Series Foundation Models for Zero-shot Forecasting
- Title(参考訳): Reverso: ゼロショット予測のための効率的な時系列基礎モデル
- Authors: Xinghong Fu, Yanhong Li, Georgios Papaioannou, Yoon Kim,
- Abstract要約: 長い畳み込み層と線形RNN層をインターリーブする小型ハイブリッドモデルは、より大規模なトランスモデルの性能に適合することを示す。
このレシピは、ゼロショット予測のための効率的な時系列基礎モデルのファミリーであるReversoに結果をもたらす。
- 参考スコア(独自算出の注目度): 38.81240885985943
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning time series foundation models has been shown to be a promising approach for zero-shot time series forecasting across diverse time series domains. Insofar as scaling has been a critical driver of performance of foundation models in other modalities such as language and vision, much recent work on time series foundation modeling has focused on scaling. This has resulted in time series foundation models with hundreds of millions of parameters that are, while performant, inefficient and expensive to use in practice. This paper describes a simple recipe for learning efficient foundation models for zero-shot time series forecasting that are orders of magnitude smaller. We show that large-scale transformers are not necessary: small hybrid models that interleave long convolution and linear RNN layers (in particular DeltaNet layers) can match the performance of larger transformer-based models while being more than a hundred times smaller. We also describe several data augmentation and inference strategies that further improve performance. This recipe results in Reverso, a family of efficient time series foundation models for zero-shot forecasting that significantly push the performance-efficiency Pareto frontier.
- Abstract(参考訳): 学習時系列基礎モデルは、様々な時系列領域にわたるゼロショット時系列予測において有望なアプローチであることが示されている。
スケーリングは、言語やビジョンなどの他のモダリティにおける基礎モデルのパフォーマンスにおいて重要な要因となっているため、最近の時系列基礎モデリングの研究は、スケーリングに重点を置いている。
この結果、実際の使用にはパフォーマンス、非効率、費用がかかるにもかかわらず、数億のパラメータを持つ時系列基盤モデルが実現した。
本稿では、ゼロショット時系列予測のための効率的な基礎モデルを学習するための簡単なレシピについて述べる。
長い畳み込み層と線形RNN層(特にデルタネット層)をインターリーブする小さなハイブリッドモデルは、100倍以上の規模で、大きなトランスフォーマーベースのモデルの性能と一致させることができる。
また、パフォーマンスをさらに向上させるいくつかのデータ拡張と推論戦略についても説明します。
このレシピは、ゼロショット予測のための効率的な時系列基礎モデルのファミリーであるReversoで、パフォーマンス効率のParetoフロンティアを著しく押し上げます。
関連論文リスト
- How Foundational are Foundation Models for Time Series Forecasting? [2.692427265051276]
時系列データの本質的な多様性は、基礎モデルが効果的なモデル構築にはあまり適さないことを論じる。
時系列基礎モデルのゼロショット能力は、事前訓練された特定のドメインに大きく影響され、結びついていることが示される。
論文 参考訳(メタデータ) (2025-10-01T10:25:43Z) - LETS-C: Leveraging Text Embedding for Time Series Classification [15.520883566827608]
本稿では,時系列領域における言語モデリングの成功を活用するための代替手法を提案する。
テキスト埋め込みモデルを用いて時系列を埋め込み、その埋め込みを畳み込みニューラルネットワーク(CNN)と多層パーセプトロン(MLP)からなる単純な分類ヘッドと組み合わせる。
本研究は,テキスト埋め込みモデルを用いて時系列データをエンコードし,かつ,単純かつ効果的に分類し,高性能な時系列分類を実現する上で有望な方向性を示すことを示唆する。
論文 参考訳(メタデータ) (2024-07-09T04:07:57Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。