論文の概要: Time Series Forecasting with Hypernetworks Generating Parameters in
Advance
- arxiv url: http://arxiv.org/abs/2211.12034v1
- Date: Tue, 22 Nov 2022 06:09:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 18:44:56.210211
- Title: Time Series Forecasting with Hypernetworks Generating Parameters in
Advance
- Title(参考訳): 予めパラメータを生成するハイパーネットワークを用いた時系列予測
- Authors: Jaehoon Lee, Chan Kim, Gyumin Lee, Haksoo Lim, Jeongwhan Choi, Kookjin
Lee, Dongeun Lee, Sanghyun Hong, Noseong Park
- Abstract要約: 基礎となるダイナミクスが変化するたびに、複雑な時間パターンのパラメータを調整するには、モデルに時間がかかる。
我々は、将来のデータでうまく機能することが期待される他のターゲットモデルのパラメータを生成するハイパーネットワークを構築する。
6つのターゲットモデル、6つのベースライン、4つのデータセットで広範な実験を行い、HyperGPAが他のベースラインより優れていることを示す。
- 参考スコア(独自算出の注目度): 23.928990342455158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Forecasting future outcomes from recent time series data is not easy,
especially when the future data are different from the past (i.e. time series
are under temporal drifts). Existing approaches show limited performances under
data drifts, and we identify the main reason: It takes time for a model to
collect sufficient training data and adjust its parameters for complicated
temporal patterns whenever the underlying dynamics change. To address this
issue, we study a new approach; instead of adjusting model parameters (by
continuously re-training a model on new data), we build a hypernetwork that
generates other target models' parameters expected to perform well on the
future data. Therefore, we can adjust the model parameters beforehand (if the
hypernetwork is correct). We conduct extensive experiments with 6 target
models, 6 baselines, and 4 datasets, and show that our HyperGPA outperforms
other baselines.
- Abstract(参考訳): 最近の時系列データから将来の結果を予測することは、特に未来データが過去と異なる場合(つまり、時系列は時間的ドリフト下にある)は容易ではない。
モデルが十分なトレーニングデータを収集し、基礎となるダイナミクスが変化するたびに、そのパラメータを複雑な時間パターンに調整するのに時間がかかります。
モデルパラメータを(新しいデータ上でモデルを継続的に再トレーニングすることで)調整するのではなく、将来のデータでうまく動作すると期待される他のターゲットモデルのパラメータを生成するハイパーネットワークを構築する。
したがって、モデルパラメータを事前に調整することができる(ハイパーネットワークが正しければ)。
6つのターゲットモデル、6つのベースライン、4つのデータセットで広範な実験を行い、HyperGPAが他のベースラインより優れていることを示す。
関連論文リスト
- Chronos: Learning the Language of Time Series [79.45082787390962]
Chronosは事前訓練された確率的時系列モデルのためのフレームワークである。
クロノスモデルでは,様々な領域の時系列データを利用して,未知の予測タスクにおけるゼロショット精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-12T16:53:54Z) - Generative Pretrained Hierarchical Transformer for Time Series
Forecasting [4.012001172505646]
本稿ではGPHTと呼ばれる予測のための新しい生成事前学習型階層型トランスフォーマアーキテクチャを提案する。
一方、我々は、様々なデータシナリオから様々なデータセットから構成される、モデルを事前訓練するための混合データセットの構築を提唱する。
一方、GPHTはチャネルに依存しない仮定の下で自己回帰予測手法を採用し、出力系列における時間的依存関係を効果的にモデル化する。
論文 参考訳(メタデータ) (2024-02-26T11:54:54Z) - Unified Training of Universal Time Series Forecasting Transformers [110.79681024473159]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Transformers for Time Series Analysis at Scale [87.9808714449511]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - The Bigger the Better? Rethinking the Effective Model Scale in Long-term
Time Series Forecasting [57.00348861248051]
時系列予測は時系列分析において重要なフロンティアである。
階層的な分解で拡張された軽量トランスフォーマーであるHDformerを紹介する。
HDformerは既存のLTSFモデルよりも優れており、パラメータは99%以上少ない。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - Pre-training Enhanced Spatial-temporal Graph Neural Network for
Multivariate Time Series Forecasting [13.441945545904504]
スケーラブルな時系列事前学習モデル(STEP)によりSTGNNが拡張される新しいフレームワークを提案する。
具体的には、非常に長期の歴史時系列から時間パターンを効率的に学習するための事前学習モデルを設計する。
我々のフレームワークは下流のSTGNNを著しく強化することができ、事前学習モデルは時間パターンを適切にキャプチャする。
論文 参考訳(メタデータ) (2022-06-18T04:24:36Z) - Global Models for Time Series Forecasting: A Simulation Study [2.580765958706854]
自動回帰(AR)や季節ARのような単純なデータ生成プロセス(DGP)からカオスロジスティックマップ、自己興奮型閾値自動回帰、マッキーグラス方程式といった複雑なDGPまで、時系列をシミュレートする。
データセットの長さと系列数は、さまざまなシナリオで変化します。
我々はこれらのデータセットに対して,Recurrent Neural Networks (RNN), Feed-Forward Neural Networks, Pooled Regression (PR) Model, Light Gradient Boosting Models (LGBM)などの大域的予測モデルを用いて実験を行った。
論文 参考訳(メタデータ) (2020-12-23T04:45:52Z) - Improving the Accuracy of Global Forecasting Models using Time Series
Data Augmentation [7.38079566297881]
GFM(Global Forecasting Models)として知られる多くの時系列のセットでトレーニングされた予測モデルは、競争や実世界のアプリケーションを予測する上で有望な結果を示している。
本稿では,GFMモデルのベースライン精度を向上させるための,データ拡張に基づく新しい予測フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-06T13:52:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。