論文の概要: Time Series Forecasting with Hypernetworks Generating Parameters in
Advance
- arxiv url: http://arxiv.org/abs/2211.12034v1
- Date: Tue, 22 Nov 2022 06:09:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 18:44:56.210211
- Title: Time Series Forecasting with Hypernetworks Generating Parameters in
Advance
- Title(参考訳): 予めパラメータを生成するハイパーネットワークを用いた時系列予測
- Authors: Jaehoon Lee, Chan Kim, Gyumin Lee, Haksoo Lim, Jeongwhan Choi, Kookjin
Lee, Dongeun Lee, Sanghyun Hong, Noseong Park
- Abstract要約: 基礎となるダイナミクスが変化するたびに、複雑な時間パターンのパラメータを調整するには、モデルに時間がかかる。
我々は、将来のデータでうまく機能することが期待される他のターゲットモデルのパラメータを生成するハイパーネットワークを構築する。
6つのターゲットモデル、6つのベースライン、4つのデータセットで広範な実験を行い、HyperGPAが他のベースラインより優れていることを示す。
- 参考スコア(独自算出の注目度): 23.928990342455158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Forecasting future outcomes from recent time series data is not easy,
especially when the future data are different from the past (i.e. time series
are under temporal drifts). Existing approaches show limited performances under
data drifts, and we identify the main reason: It takes time for a model to
collect sufficient training data and adjust its parameters for complicated
temporal patterns whenever the underlying dynamics change. To address this
issue, we study a new approach; instead of adjusting model parameters (by
continuously re-training a model on new data), we build a hypernetwork that
generates other target models' parameters expected to perform well on the
future data. Therefore, we can adjust the model parameters beforehand (if the
hypernetwork is correct). We conduct extensive experiments with 6 target
models, 6 baselines, and 4 datasets, and show that our HyperGPA outperforms
other baselines.
- Abstract(参考訳): 最近の時系列データから将来の結果を予測することは、特に未来データが過去と異なる場合(つまり、時系列は時間的ドリフト下にある)は容易ではない。
モデルが十分なトレーニングデータを収集し、基礎となるダイナミクスが変化するたびに、そのパラメータを複雑な時間パターンに調整するのに時間がかかります。
モデルパラメータを(新しいデータ上でモデルを継続的に再トレーニングすることで)調整するのではなく、将来のデータでうまく動作すると期待される他のターゲットモデルのパラメータを生成するハイパーネットワークを構築する。
したがって、モデルパラメータを事前に調整することができる(ハイパーネットワークが正しければ)。
6つのターゲットモデル、6つのベースライン、4つのデータセットで広範な実験を行い、HyperGPAが他のベースラインより優れていることを示す。
関連論文リスト
- TimeSieve: Extracting Temporal Dynamics through Information Bottlenecks [31.10683149519954]
本稿では,時系列予測モデルTimeSieveを提案する。
提案手法では、ウェーブレット変換を用いて時系列データを前処理し、マルチスケールの特徴を効果的にキャプチャする。
本研究は,時系列予測における課題に対処するためのアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-06-07T15:58:12Z) - Are Self-Attentions Effective for Time Series Forecasting? [4.990206466948269]
時系列予測は、複数のドメインやさまざまなシナリオにわたるアプリケーションにとって不可欠である。
近年の研究では、より単純な線形モデルは、複雑なトランスフォーマーベースのアプローチよりも優れていることが示されている。
我々は、新しいアーキテクチャ、クロスアテンションのみの時系列変換器(CATS)を導入する。
提案モデルでは,平均二乗誤差が最小であり,既存のモデルに比べてパラメータが少ないため,性能が向上する。
論文 参考訳(メタデータ) (2024-05-27T06:49:39Z) - Chronos: Learning the Language of Time Series [79.38691251254173]
Chronosは事前訓練された確率的時系列モデルのためのフレームワークである。
クロノスモデルでは,様々な領域の時系列データを利用して,未知の予測タスクにおけるゼロショット精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-12T16:53:54Z) - Generative Pretrained Hierarchical Transformer for Time Series Forecasting [3.739587363053192]
予測のための新しい生成事前学習型階層型トランスフォーマーアーキテクチャ,textbfGPHTを提案する。
主流の自己教師付き事前学習モデルと教師付きモデルを用いて,8つのデータセット上で十分な実験を行う。
その結果、GPHTは、従来の長期予測タスクにおいて、様々な微調整およびゼロ/フェーショット学習設定のベースラインモデルを上回ることを示した。
論文 参考訳(メタデータ) (2024-02-26T11:54:54Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - Global Models for Time Series Forecasting: A Simulation Study [2.580765958706854]
自動回帰(AR)や季節ARのような単純なデータ生成プロセス(DGP)からカオスロジスティックマップ、自己興奮型閾値自動回帰、マッキーグラス方程式といった複雑なDGPまで、時系列をシミュレートする。
データセットの長さと系列数は、さまざまなシナリオで変化します。
我々はこれらのデータセットに対して,Recurrent Neural Networks (RNN), Feed-Forward Neural Networks, Pooled Regression (PR) Model, Light Gradient Boosting Models (LGBM)などの大域的予測モデルを用いて実験を行った。
論文 参考訳(メタデータ) (2020-12-23T04:45:52Z) - Improving the Accuracy of Global Forecasting Models using Time Series
Data Augmentation [7.38079566297881]
GFM(Global Forecasting Models)として知られる多くの時系列のセットでトレーニングされた予測モデルは、競争や実世界のアプリケーションを予測する上で有望な結果を示している。
本稿では,GFMモデルのベースライン精度を向上させるための,データ拡張に基づく新しい予測フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-06T13:52:20Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。