論文の概要: Split Time Series into Patches: Rethinking Long-term Series Forecasting
with Dateformer
- arxiv url: http://arxiv.org/abs/2207.05397v1
- Date: Tue, 12 Jul 2022 08:58:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 13:25:38.371757
- Title: Split Time Series into Patches: Rethinking Long-term Series Forecasting
with Dateformer
- Title(参考訳): 時系列をパッチに分割する - Dateformerによる時系列予測の再考
- Authors: Julong Young, Huiqiang Wang, Junhui Chen, Feihu Huang, Jian Peng
- Abstract要約: 時間は時系列の最も重要な特徴の1つだが、あまり注目されていない。
本稿では、上記のプラクティスに従うのではなく、モデリング時間に注意を向けるDateformerを提案する。
ディザフォーマーは、40%の顕著な相対的な改善で最先端の精度を達成し、最大信頼性予測範囲を半年レベルに拡大する。
- 参考スコア(独自算出の注目度): 17.454822366228335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time is one of the most significant characteristics of time-series, yet has
received insufficient attention. Prior time-series forecasting research has
mainly focused on mapping a past subseries (lookback window) to a future series
(forecast window), and time of series often just play an auxiliary role even
completely ignored in most cases. Due to the point-wise processing within these
windows, extrapolating series to longer-term future is tough in the pattern. To
overcome this barrier, we propose a brand-new time-series forecasting framework
named Dateformer who turns attention to modeling time instead of following the
above practice. Specifically, time-series are first split into patches by day
to supervise the learning of dynamic date-representations with Date Encoder
Representations from Transformers (DERT). These representations are then fed
into a simple decoder to produce a coarser (or global) prediction, and used to
help the model seek valuable information from the lookback window to learn a
refined (or local) prediction. Dateformer obtains the final result by summing
the above two parts. Our empirical studies on seven benchmarks show that the
time-modeling method is more efficient for long-term series forecasting
compared with sequence modeling methods. Dateformer yields state-of-the-art
accuracy with a 40% remarkable relative improvement, and broadens the maximum
credible forecasting range to a half-yearly level.
- Abstract(参考訳): timeは時系列の最も重要な特徴の1つだが、あまり注目されていない。
過去の時系列予測研究は、主に過去のサブシリーズ(振り返りウィンドウ)を将来のシリーズ(予報ウィンドウ)にマッピングすることに重点を置いており、ほとんどの場合、シリーズの時間が補助的な役割を果たす。
これらのウィンドウ内でのポイントワイドな処理のため、パターンの長期化は困難である。
この障壁を克服するため,Dateformerという新たな時系列予測フレームワークを提案する。
具体的には、時系列は、Date Encoder Representations from Transformers (DERT)で動的日付表現の学習を監督するために、まず1日ごとにパッチに分割される。
これらの表現は単純なデコーダに入力され、粗い(またはグローバルな)予測を生成し、モデルがルックバックウィンドウから貴重な情報を探し出して洗練された(または局所的な)予測を学ぶのを助ける。
dateformerは、上記の2つの部分をまとめることで最終結果を得る。
7つのベンチマークを用いた実験により, 時系列モデリング法と比較して, 時系列予測に時間モデリング法の方が効率的であることが示された。
dateformerは、最先端の精度と40%の相対的改善を実現し、最大信頼性の予測範囲を半年レベルのレベルに拡大する。
関連論文リスト
- Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - MPR-Net:Multi-Scale Pattern Reproduction Guided Universality Time Series
Interpretable Forecasting [13.790498420659636]
時系列予測は、その広範な応用が本質的に困難なため、既存の研究から幅広い関心を集めている。
本稿では,まず,畳み込み操作を用いてマルチスケールの時系列パターンを適応的に分解し,パターン再現の既知に基づいてパターン拡張予測手法を構築し,最終的に畳み込み操作を用いて将来的なパターンを再構築する。
時系列に存在する時間的依存関係を活用することで、MPR-Netは線形時間複雑性を達成するだけでなく、予測プロセスも解釈できる。
論文 参考訳(メタデータ) (2023-07-13T13:16:01Z) - Time Series Forecasting via Semi-Asymmetric Convolutional Architecture
with Global Atrous Sliding Window [0.0]
本稿では,時系列予測の問題に対処するために提案手法を提案する。
現代のモデルのほとんどは、短い範囲の情報のみに焦点を当てており、時系列予測のような問題で致命的なものである。
パフォーマンス上のアドバンテージがあることを実験的に検証した3つの主要なコントリビューションを行います。
論文 参考訳(メタデータ) (2023-01-31T15:07:31Z) - VQ-AR: Vector Quantized Autoregressive Probabilistic Time Series
Forecasting [10.605719154114354]
時系列モデルは過去の予測を正確に予測することを目的としており、そこではビジネス上の意思決定のような重要な下流のタスクに予測が使用される。
本稿では,新しい自己回帰型アーキテクチャであるVQ-ARを提案する。
論文 参考訳(メタデータ) (2022-05-31T15:43:46Z) - Optimal Latent Space Forecasting for Large Collections of Short Time
Series Using Temporal Matrix Factorization [0.0]
複数の手法を評価し、それらの方法の1つを選択することや、最良の予測を生成するためのアンサンブルを選択するのが一般的である。
本稿では,低ランク時間行列係数化と潜在時系列上での最適モデル選択を組み合わせることで,短時間の高次元時系列データを予測するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-15T11:39:21Z) - Series Saliency: Temporal Interpretation for Multivariate Time Series
Forecasting [30.054015098590874]
時系列予測のための時系列解釈のためのシリーズサリエンシーフレームワークを提示する。
時系列のスライディングウィンドウから「時系列画像」を抽出することにより、サリエンシーマップのセグメンテーションを適用する。
本フレームワークは,時系列予測タスクの時間的解釈を生成し,正確な時系列予測を生成する。
論文 参考訳(メタデータ) (2020-12-16T23:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。