論文の概要: Chronos-2: From Univariate to Universal Forecasting
- arxiv url: http://arxiv.org/abs/2510.15821v1
- Date: Fri, 17 Oct 2025 17:00:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.719791
- Title: Chronos-2: From Univariate to Universal Forecasting
- Title(参考訳): Chronos-2:Universal ForecastingからUniversal Forecastingへ
- Authors: Abdul Fatir Ansari, Oleksandr Shchur, Jaris Küken, Andreas Auer, Boran Han, Pedro Mercado, Syama Sundar Rangapuram, Huibin Shen, Lorenzo Stella, Xiyuan Zhang, Mononito Goswami, Shubham Kapoor, Danielle C. Maddix, Pablo Guerron, Tony Hu, Junming Yin, Nick Erickson, Prateek Mutalik Desai, Hao Wang, Huzefa Rangwala, George Karypis, Yuyang Wang, Michael Bohlke-Schneider,
- Abstract要約: Chronos-2は、一変量、多変量、共変量による予測タスクをゼロショットで処理できる事前訓練されたモデルである。
fev-bench、GIFT-Eval、Chronos Benchmark IIの3つの総合ベンチマークで最先端のパフォーマンスを提供する。
Chronos-2のコンテキスト内学習能力は、現実世界の予測パイプラインで"as is"として使用できる汎用予測モデルとして確立されている。
- 参考スコア(独自算出の注目度): 52.753731922908905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pretrained time series models have enabled inference-only forecasting systems that produce accurate predictions without task-specific training. However, existing approaches largely focus on univariate forecasting, limiting their applicability in real-world scenarios where multivariate data and covariates play a crucial role. We present Chronos-2, a pretrained model capable of handling univariate, multivariate, and covariate-informed forecasting tasks in a zero-shot manner. Chronos-2 employs a group attention mechanism that facilitates in-context learning (ICL) through efficient information sharing across multiple time series within a group, which may represent sets of related series, variates of a multivariate series, or targets and covariates in a forecasting task. These general capabilities are achieved through training on synthetic datasets that impose diverse multivariate structures on univariate series. Chronos-2 delivers state-of-the-art performance across three comprehensive benchmarks: fev-bench, GIFT-Eval, and Chronos Benchmark II. On fev-bench, which emphasizes multivariate and covariate-informed forecasting, Chronos-2's universal ICL capabilities lead to substantial improvements over existing models. On tasks involving covariates, it consistently outperforms baselines by a wide margin. Case studies in the energy and retail domains further highlight its practical advantages. The in-context learning capabilities of Chronos-2 establish it as a general-purpose forecasting model that can be used "as is" in real-world forecasting pipelines.
- Abstract(参考訳): 事前訓練された時系列モデルは、タスク固有のトレーニングなしで正確な予測を生成する推論のみの予測システムを実現している。
しかし、既存のアプローチは主に単変量予測に重点を置いており、多変量データと共変量が重要な役割を果たす実世界のシナリオにおける適用性を制限している。
単変量,多変量,共変量を含む予測タスクをゼロショットで処理できる事前学習モデルであるChronos-2を提案する。
Chronos-2は、グループ内の複数の時系列をまたいだ効率的な情報共有を通じて、コンテキスト内学習(ICL)を促進するグループアテンション機構を採用している。
これらの一般的な機能は、単変量級数上の多変量構造を規定する合成データセットのトレーニングによって達成される。
Chronos-2は、fev-bench、GIFT-Eval、Chronos Benchmark IIの3つの総合ベンチマークで最先端のパフォーマンスを提供する。
多変量および共変量インフォームド予測を強調する fev-bench では、Chronos-2 の普遍 ICL 機能は既存のモデルよりも大幅に改善されている。
共変量を含むタスクでは、ベースラインを広いマージンで一貫して上回る。
エネルギーと小売分野におけるケーススタディは、その実用上の利点をさらに強調している。
Chronos-2のコンテキスト内学習能力は、現実世界の予測パイプラインで"as is"として使用できる汎用予測モデルとして確立されている。
関連論文リスト
- Generalized Prompt Tuning: Adapting Frozen Univariate Time Series Foundation Models for Multivariate Healthcare Time Series [3.9599054392856483]
時系列基礎モデルは、大規模なデータセットで事前訓練され、様々なタスクで最先端のパフォーマンスを達成することができる。
我々は、既存の単変量時系列基礎モデルに適応できる、素早いチューニングインスパイアされた微調整技術Gen-P-Tuningを提案する。
2つのMIMIC分類課題とインフルエンザ様疾患予測における各種ベースラインに対する微調整アプローチの有効性を実証した。
論文 参考訳(メタデータ) (2024-11-19T19:20:58Z) - Towards Generalisable Time Series Understanding Across Domains [10.350643783811174]
時系列の不均一性を扱うために特別に設計された新しい事前学習パラダイムを導入する。
本稿では、学習可能なドメインシグネチャ、二重マスキング戦略、正規化相互相関損失を持つトークンサを提案する。
私たちのコードと事前訓練されたウェイトはhttps://www.oetu.com/oetu/otis.comで公開されています。
論文 参考訳(メタデータ) (2024-10-09T17:09:30Z) - DAM: Towards A Foundation Model for Time Series Forecasting [0.8231118867997028]
本稿では,ランダムにサンプリングされた履歴を抽出し,時間連続関数として調整可能な基底組成を出力するニューラルモデルを提案する。
1)長い尾の分布からランダムにサンプリングされたヒストリーを使用する柔軟なアプローチ、(2)これらの活発にサンプリングされたヒストリーに基づいてトレーニングされたトランスフォーマーバックボーンを表現的出力として、(3)時間の連続関数の基底係数を含む。
論文 参考訳(メタデータ) (2024-07-25T08:48:07Z) - Chronos: Learning the Language of Time Series [79.38691251254173]
Chronosは事前訓練された確率的時系列モデルのためのフレームワークである。
クロノスモデルでは,様々な領域の時系列データを利用して,未知の予測タスクにおけるゼロショット精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-12T16:53:54Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - TACTiS-2: Better, Faster, Simpler Attentional Copulas for Multivariate Time Series [57.4208255711412]
パウラ理論に基づいて,最近導入されたトランスフォーマーに基づく注目パウラ(TACTiS)の簡易な目的を提案する。
結果から,実世界の予測タスクにまたがって,このモデルのトレーニング性能が大幅に向上し,最先端のパフォーマンスが達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T16:45:19Z) - MECATS: Mixture-of-Experts for Quantile Forecasts of Aggregated Time
Series [11.826510794042548]
我々はtexttMECATS という異種の専門家フレームワークを混合して導入する。
集約階層を通じて関連付けられた時系列の集合の値を同時に予測する。
異なる種類の予測モデルを個別の専門家として使用することで、各モデルの形式を対応する時系列の性質に合わせて調整することができる。
論文 参考訳(メタデータ) (2021-12-22T05:05:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。