論文の概要: Modèles de Fondation et Ajustement : Vers une Nouvelle Génération de Modèles pour la Prévision des Séries Temporelles
- arxiv url: http://arxiv.org/abs/2511.22674v1
- Date: Thu, 27 Nov 2025 18:19:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.676003
- Title: Modèles de Fondation et Ajustement : Vers une Nouvelle Génération de Modèles pour la Prévision des Séries Temporelles
- Title(参考訳): 法制化と法制化 : 法制化をめざして
- Authors: Morad Laglil, Emilie Devijver, Eric Gaussier, Bertrand Pracca,
- Abstract要約: ゼロショット時系列予測のための基礎モデルが開発されている。
これらのモデルは点予測と確率予測の両方に対して一般化可能な表現を学ぶ。
プレトレーニング後の微調整が特定のデータセットに与える影響について検討した。
- 参考スコア(独自算出の注目度): 26.28141834580785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inspired by recent advances in large language models, foundation models have been developed for zero-shot time series forecasting, enabling prediction on datasets unseen during pretraining. These large-scale models, trained on vast collections of time series, learn generalizable representations for both point and probabilistic forecasting, reducing the need for task-specific architectures and manual tuning. In this work, we review the main architectures, pretraining strategies, and optimization methods used in such models, and study the effect of fine-tuning after pretraining to enhance their performance on specific datasets. Our empirical results show that fine-tuning generally improves zero-shot forecasting capabilities, especially for long-term horizons.
- Abstract(参考訳): 大規模言語モデルの最近の進歩に触発されて、ゼロショット時系列予測のための基礎モデルが開発され、事前トレーニング中に目に見えないデータセットの予測が可能になった。
これらの大規模モデルは、膨大な時系列のコレクションに基づいて訓練され、点と確率予測の両方の一般化可能な表現を学び、タスク固有のアーキテクチャや手動チューニングの必要性を減らす。
本研究では,これらのモデルで使用される主要なアーキテクチャ,事前学習戦略,最適化手法を概説し,事前学習後の微調整の効果について検討し,その性能を特定のデータセット上で向上させる。
実験結果から,特に長期の地平線において,微調整によりゼロショット予測能力が向上することが示唆された。
関連論文リスト
- Pre-trained Forecasting Models: Strong Zero-Shot Feature Extractors for Time Series Classification [19.714904955821623]
予測モデルでは,分類に特化して事前訓練された最先端のモデルと一致するか,あるいは超えるような分類精度が得られることを示す。
これらの結果は,タスク固有の事前学習が必要であるという仮定に疑問を呈し,予測学習が汎用時系列基礎モデルの構築に強力な道筋を提供する可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-10-30T17:55:23Z) - How Foundational are Foundation Models for Time Series Forecasting? [2.692427265051276]
時系列データの本質的な多様性は、基礎モデルが効果的なモデル構築にはあまり適さないことを論じる。
時系列基礎モデルのゼロショット能力は、事前訓練された特定のドメインに大きく影響され、結びついていることが示される。
論文 参考訳(メタデータ) (2025-10-01T10:25:43Z) - Generative Pretrained Hierarchical Transformer for Time Series Forecasting [3.739587363053192]
予測のための新しい生成事前学習型階層型トランスフォーマーアーキテクチャ,textbfGPHTを提案する。
主流の自己教師付き事前学習モデルと教師付きモデルを用いて,8つのデータセット上で十分な実験を行う。
その結果、GPHTは、従来の長期予測タスクにおいて、様々な微調整およびゼロ/フェーショット学習設定のベースラインモデルを上回ることを示した。
論文 参考訳(メタデータ) (2024-02-26T11:54:54Z) - Predictive Churn with the Set of Good Models [61.00058053669447]
本稿では,予測的不整合という2つの無関係な概念の関連性について考察する。
予測多重性(英: predictive multiplicity)は、個々のサンプルに対して矛盾する予測を生成するモデルである。
2つ目の概念である予測チャーン(英: predictive churn)は、モデル更新前後の個々の予測の違いを調べるものである。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - A decoder-only foundation model for time-series forecasting [23.824504640087753]
我々のモデルは,大規模時系列コーパス上でパッチ付きデコーダスタイルのアテンションモデルを事前学習することに基づいている。
予測履歴の長さ、予測長、時間的粒度の異なる範囲でうまく機能する。
論文 参考訳(メタデータ) (2023-10-14T17:01:37Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。