論文の概要: Multi-scale Transformer Pyramid Networks for Multivariate Time Series
Forecasting
- arxiv url: http://arxiv.org/abs/2308.11946v1
- Date: Wed, 23 Aug 2023 06:40:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 15:26:59.038172
- Title: Multi-scale Transformer Pyramid Networks for Multivariate Time Series
Forecasting
- Title(参考訳): 多変量時系列予測のためのマルチスケール変圧器ピラミッドネットワーク
- Authors: Yifan Zhang, Rui Wu, Sergiu M. Dascalu, Frederick C. Harris Jr
- Abstract要約: 短時間の時間依存性をキャプチャする次元不変な埋め込み手法を導入する。
本稿では,マルチスケールトランスフォーマーピラミッドネットワーク(MTPNet)を提案する。
- 参考スコア(独自算出の注目度): 8.739572744117634
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multivariate Time Series (MTS) forecasting involves modeling temporal
dependencies within historical records. Transformers have demonstrated
remarkable performance in MTS forecasting due to their capability to capture
long-term dependencies. However, prior work has been confined to modeling
temporal dependencies at either a fixed scale or multiple scales that
exponentially increase (most with base 2). This limitation hinders their
effectiveness in capturing diverse seasonalities, such as hourly and daily
patterns. In this paper, we introduce a dimension invariant embedding technique
that captures short-term temporal dependencies and projects MTS data into a
higher-dimensional space, while preserving the dimensions of time steps and
variables in MTS data. Furthermore, we present a novel Multi-scale Transformer
Pyramid Network (MTPNet), specifically designed to effectively capture temporal
dependencies at multiple unconstrained scales. The predictions are inferred
from multi-scale latent representations obtained from transformers at various
scales. Extensive experiments on nine benchmark datasets demonstrate that the
proposed MTPNet outperforms recent state-of-the-art methods.
- Abstract(参考訳): 多変量時系列(MTS)予測では、歴史的記録内の時間的依存関係をモデル化する。
トランスフォーマーは、mts予測において長期的な依存関係をキャプチャする能力により顕著な性能を示している。
しかしながら、事前の作業は、(主にベース2で)指数関数的に増加する固定スケールまたは複数スケールの時間的依存関係のモデリングに限られている。
この制限は、時間や日々のパターンなど、多様な季節をとらえる効果を妨げている。
本稿では,MTSデータの時間ステップと変数の次元を保存しながら,短時間の時間依存性を捉え,TSデータを高次元空間に投影する次元不変埋め込み手法を提案する。
さらに,マルチスケール・トランスフォーマー・ピラミッド・ネットワーク(mtpnet,multi-scale transformer pyramid network)を提案する。
予測は、様々なスケールの変圧器から得られるマルチスケールの潜在表現から推測される。
9つのベンチマークデータセットに対する大規模な実験は、提案されたMPPNetが最近の最先端の手法より優れていることを示している。
関連論文リスト
- Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - Considering Nonstationary within Multivariate Time Series with
Variational Hierarchical Transformer for Forecasting [12.793705636683402]
MTS内の非定常性と固有特性を考慮した強力な階層的確率的生成モジュールを開発した。
次に、階層時間系列変分変換器(HTV-Trans)という、明確に定義された変動生成動的モデルに対する変換器と組み合わせる。
HTV-Transは強力な確率モデルであり、MTSの表現表現を学習し、予測タスクに適用する。
論文 参考訳(メタデータ) (2024-03-08T16:04:36Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - Multi-resolution Time-Series Transformer for Long-term Forecasting [24.47302799009906]
様々な時間パターンを異なる解像度で同時モデリングするための新しいフレームワークMTST(Multi- resolution Time-Series Transformer)を提案する。
多くの既存の時系列変換器とは対照的に、異なるスケールで周期成分を抽出するのに適する相対的な位置符号化を用いる。
論文 参考訳(メタデータ) (2023-11-07T17:18:52Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - MTS-Mixers: Multivariate Time Series Forecasting via Factorized Temporal
and Channel Mixing [18.058617044421293]
本稿では,時系列予測の性能に対する注意機構の寄与と欠陥について検討する。
MTS-Mixersを提案する。これは2つの分解されたモジュールを用いて時間的およびチャネル的依存関係をキャプチャする。
いくつかの実世界のデータセットによる実験結果から、MTS-Mixersは既存のTransformerベースのモデルよりも高い効率で性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-02-09T08:52:49Z) - W-Transformers : A Wavelet-based Transformer Framework for Univariate
Time Series Forecasting [7.075125892721573]
我々はウェーブレットベースのトランスフォーマーエンコーダアーキテクチャを用いて,非定常時系列のトランスフォーマーモデルを構築した。
各種ドメインから公開されているベンチマーク時系列データセットについて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-09-08T17:39:38Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。