論文の概要: Advancing Long-Term Multi-Energy Load Forecasting with Patchformer: A Patch and Transformer-Based Approach
- arxiv url: http://arxiv.org/abs/2404.10458v1
- Date: Tue, 16 Apr 2024 10:56:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 17:13:30.372649
- Title: Advancing Long-Term Multi-Energy Load Forecasting with Patchformer: A Patch and Transformer-Based Approach
- Title(参考訳): パッチフォーマによる長期多エネルギー負荷予測の高速化:パッチとトランスフォーマに基づくアプローチ
- Authors: Qiuyi Hong, Fanlin Meng, Felipe Maldonado,
- Abstract要約: 本稿では、パッチ埋め込みとエンコーダデコーダトランスフォーマーベースのアーキテクチャを統合する新しいモデルであるPatchformerを紹介する。
Patchformerは、モデル性能と過去のシーケンスの長さの正の相関に従う唯一のモデルとして説明される。
- 参考スコア(独自算出の注目度): 1.4228349888743608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the context of increasing demands for long-term multi-energy load forecasting in real-world applications, this paper introduces Patchformer, a novel model that integrates patch embedding with encoder-decoder Transformer-based architectures. To address the limitation in existing Transformer-based models, which struggle with intricate temporal patterns in long-term forecasting, Patchformer employs patch embedding, which predicts multivariate time-series data by separating it into multiple univariate data and segmenting each of them into multiple patches. This method effectively enhances the model's ability to capture local and global semantic dependencies. The numerical analysis shows that the Patchformer obtains overall better prediction accuracy in both multivariate and univariate long-term forecasting on the novel Multi-Energy dataset and other benchmark datasets. In addition, the positive effect of the interdependence among energy-related products on the performance of long-term time-series forecasting across Patchformer and other compared models is discovered, and the superiority of the Patchformer against other models is also demonstrated, which presents a significant advancement in handling the interdependence and complexities of long-term multi-energy forecasting. Lastly, Patchformer is illustrated as the only model that follows the positive correlation between model performance and the length of the past sequence, which states its ability to capture long-range past local semantic information.
- Abstract(参考訳): 本稿では,エンコーダ・デコーダ・トランスフォーマーをベースとしたアーキテクチャにパッチ埋め込みを組み込んだ新しいモデルであるPatchformerを提案する。
長期予測において複雑な時間パターンに苦しむ既存のTransformerベースのモデルの制限に対処するため、Patchformerでは、複数の単変量データに分割し、それぞれを複数のパッチに分割することで、多変量時系列データを予測するパッチ埋め込みを採用している。
この方法は、ローカルおよびグローバルなセマンティック依存関係をキャプチャするモデルの能力を効果的に強化する。
Patchformerは、新しいMulti-Energyデータセットや他のベンチマークデータセットに基づいて、多変量および単変量の両方の長期予測において、全体的な予測精度が向上していることを示す。
また,エネルギー関連製品間の相互依存性が,Patchformerおよび他の比較モデルにおける長期時系列予測の性能に及ぼす影響が発見され,Patchformerの他モデルに対する優位性も示された。
最後に、Patchformerは、モデル性能と過去のシーケンスの長さの正の相関に従う唯一のモデルとして説明され、それは、長期にわたる局所的な意味情報をキャプチャする能力を示している。
関連論文リスト
- Ister: Inverted Seasonal-Trend Decomposition Transformer for Explainable Multivariate Time Series Forecasting [10.32586981170693]
Inverted Seasonal-Trend Decomposition Transformer (Ister)
本稿では,解釈可能性,計算効率,予測精度を向上させる新しいDotアテンション機構を提案する。
Isterはコンポーネントのコントリビューションを直感的に視覚化し、モデルの意思決定プロセスに光を流し、予測結果の透明性を高める。
論文 参考訳(メタデータ) (2024-12-25T06:37:19Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Integration of Mamba and Transformer -- MAT for Long-Short Range Time Series Forecasting with Application to Weather Dynamics [7.745945701278489]
長い時間範囲の時系列予測は、長期にわたる将来の傾向やパターンを予測するのに不可欠である。
Transformersのようなディープラーニングモデルは、時系列予測の進歩に大きく貢献している。
本稿では,MambaモデルとTransformerモデルの長所と短所について検討する。
論文 参考訳(メタデータ) (2024-09-13T04:23:54Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - PDETime: Rethinking Long-Term Multivariate Time Series Forecasting from
the perspective of partial differential equations [49.80959046861793]
本稿では,ニューラルPDEソルバの原理に着想を得た新しいLMTFモデルであるPDETimeを提案する。
7つの異なる時間的実世界のLMTFデータセットを用いた実験により、PDETimeがデータ固有の性質に効果的に適応できることが判明した。
論文 参考訳(メタデータ) (2024-02-25T17:39:44Z) - Stecformer: Spatio-temporal Encoding Cascaded Transformer for
Multivariate Long-term Time Series Forecasting [11.021398675773055]
本稿では,特徴抽出とターゲット予測の観点から,問題の完全な解決法を提案する。
抽出のために,半適応グラフを含む効率的な時間的符号化抽出器を設計し,十分な時間的情報を取得する。
予測のために、異なる間隔間の相関を強化するためにカスケードデ予測器(CDP)を提案する。
論文 参考訳(メタデータ) (2023-05-25T13:00:46Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Multivariate Time-series Anomaly Detection via Graph Attention Network [27.12694738711663]
多変量時系列の異常検出は、データマイニング研究と産業応用の両方において非常に重要である。
1つの大きな制限は、異なる時系列間の関係を明示的に捉えないことである。
この問題に対処するために,多変量時系列異常検出のための新しい自己教師型フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-04T07:46:19Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。