論文の概要: How Foundational are Foundation Models for Time Series Forecasting?
- arxiv url: http://arxiv.org/abs/2510.00742v2
- Date: Thu, 02 Oct 2025 09:11:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.514871
- Title: How Foundational are Foundation Models for Time Series Forecasting?
- Title(参考訳): 時系列予測の基礎モデルとは?
- Authors: Nouha Karaouli, Denis Coquenet, Elisa Fromont, Martial Mermillod, Marina Reyboz,
- Abstract要約: 時系列データの本質的な多様性は、基礎モデルが効果的なモデル構築にはあまり適さないことを論じる。
時系列基礎モデルのゼロショット能力は、事前訓練された特定のドメインに大きく影響され、結びついていることが示される。
- 参考スコア(独自算出の注目度): 2.692427265051276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation Models are designed to serve as versatile embedding machines, with strong zero shot capabilities and superior generalization performance when fine-tuned on diverse downstream tasks. While this is largely true for language and vision foundation models, we argue that the inherent diversity of time series data makes them less suited for building effective foundation models. We demonstrate this using forecasting as our downstream task. We show that the zero-shot capabilities of a time series foundation model are significantly influenced and tied to the specific domains it has been pretrained on. Furthermore, when applied to unseen real-world time series data, fine-tuned foundation models do not consistently yield substantially better results, relative to their increased parameter count and memory footprint, than smaller, dedicated models tailored to the specific forecasting task at hand.
- Abstract(参考訳): ファンデーションモデルは、多様な下流タスクを微調整した場合に、強力なゼロショット機能と優れた一般化性能を備えた汎用的な埋め込みマシンとして機能するよう設計されている。
これは言語と視覚の基礎モデルにはほとんど当てはまるが、時系列データの本質的な多様性は、効果的な基礎モデルの構築にはあまり適さないと我々は主張する。
下流のタスクとして予測を用いてこれを実証する。
時系列基礎モデルのゼロショット能力は、事前訓練された特定のドメインに大きく影響され、結びついていることが示される。
さらに、実世界の時系列データに適用した場合、微調整された基礎モデルは、手前の特定の予測タスクに合わせて調整されたより小さな専用モデルよりも、パラメータ数やメモリフットプリントの増加に対して、はるかに優れた結果が得られるわけではない。
関連論文リスト
- Evaluation of a Foundational Model and Stochastic Models for Forecasting Sporadic or Spiky Production Outages of High-Performance Machine Learning Services [0.0]
我々は、最先端の機械学習サービスの散発的またはスパイクな生産停止を予測するために、最先端の基礎モデルを最適化する。
この分析は、各評価されたモデルが、散発的またはスパイクなイベントに対してどのように機能するかを理解するのに役立ちます。
最適なパラメータを持つモデルを用いて、6%未満の値誤差を持つ特定の根本原因の1年間の障害統計を推定する。
論文 参考訳(メタデータ) (2025-06-30T23:59:12Z) - Output Scaling: YingLong-Delayed Chain of Thought in a Large Pretrained Time Series Forecasting Model [55.25659103706409]
このフレームワークは,設計した基盤モデルであるYingLongの最先端性能を実現する。
YingLongは、マスク付きトークンリカバリによってトレーニングされた非因果的双方向アテンションエンコーダのみのトランスフォーマーである。
我々は、6Mから3Mパラメータの4つの基礎モデルをリリースし、ゼロショットタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2025-05-20T14:31:06Z) - Mantis: Lightweight Calibrated Foundation Model for User-Friendly Time Series Classification [16.738168952631735]
我々は、Vision Transformerアーキテクチャに基づく時系列分類のための新しいオープンソース基盤モデルであるMantisを紹介する。
実験の結果,マンティスは背骨凍結時と微調整時の両方で既存の基礎モデルより優れていた。
論文 参考訳(メタデータ) (2025-02-21T18:06:09Z) - Measuring Pre-training Data Quality without Labels for Time Series Foundation Models [10.64362760848387]
基礎モデルで学習した表現空間の質を評価するための新しい尺度であるコントラスト精度を導入する。
実験の結果,提案手法とモデル精度との正の相関関係を下流タスクの集合上で明らかにした。
論文 参考訳(メタデータ) (2024-12-09T10:38:30Z) - In-Context Fine-Tuning for Time-Series Foundation Models [18.348874079298298]
特に、複数の時系列例でトリガーできる事前訓練された基礎モデルを設計する。
我々の基礎モデルは、コンテキストウィンドウ内の複数の関連する時系列の例を利用するように特別に訓練されている。
本研究では,テキスト内サンプルを推論時に使用する基盤モデルにより,一般的な予測ベンチマークにおいて,より優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2024-10-31T16:20:04Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。