論文の概要: Spatio-Temporal Wind Speed Forecasting using Graph Networks and Novel
Transformer Architectures
- arxiv url: http://arxiv.org/abs/2208.13585v1
- Date: Mon, 29 Aug 2022 13:26:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 13:07:37.583636
- Title: Spatio-Temporal Wind Speed Forecasting using Graph Networks and Novel
Transformer Architectures
- Title(参考訳): グラフネットワークと新しい変圧器アーキテクチャを用いた時空間風速予測
- Authors: Lars {\O}degaard Bentsen, Narada Dilp Warakagoda, Roy Stenbro, Paal
Engelstad
- Abstract要約: 本研究は,ノルウェー大陸棚の多段階風速予測に焦点を当てた。
グラフニューラルネットワーク(GNN)アーキテクチャは、時間的相関を学習するために異なる更新機能を持つ空間的依存関係を抽出するために使用された。
LogSparse TransformerとAutoformerが風速予測に適用されたのはこれが初めてである。
- 参考スコア(独自算出の注目度): 1.278093617645299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To improve the security and reliability of wind energy production, short-term
forecasting has become of utmost importance. This study focuses on multi-step
spatio-temporal wind speed forecasting for the Norwegian continental shelf. A
graph neural network (GNN) architecture was used to extract spatial
dependencies, with different update functions to learn temporal correlations.
These update functions were implemented using different neural network
architectures. One such architecture, the Transformer, has become increasingly
popular for sequence modelling in recent years. Various alterations of the
original architecture have been proposed to better facilitate time-series
forecasting, of which this study focused on the Informer, LogSparse Transformer
and Autoformer. This is the first time the LogSparse Transformer and Autoformer
have been applied to wind forecasting and the first time any of these or the
Informer have been formulated in a spatio-temporal setting for wind
forecasting. By comparing against spatio-temporal Long Short-Term Memory (LSTM)
and Multi-Layer Perceptron (MLP) models, the study showed that the models using
the altered Transformer architectures as update functions in GNNs were able to
outperform these. Furthermore, we propose the Fast Fourier Transformer
(FFTransformer), which is a novel Transformer architecture based on signal
decomposition and consists of two separate streams that analyse trend and
periodic components separately. The FFTransformer and Autoformer were found to
achieve superior results for the 10-minute and 1-hour ahead forecasts, with the
FFTransformer significantly outperforming all other models for the 4-hour ahead
forecasts. Finally, by varying the degree of connectivity for the graph
representations, the study explicitly demonstrates how all models were able to
leverage spatial dependencies to improve local short-term wind speed
forecasting.
- Abstract(参考訳): 風力エネルギー生産の安全性と信頼性を向上させるため、短期予測が最も重要になっている。
本研究では,ノルウェー大陸棚の時空間風速予測に焦点をあてた。
グラフニューラルネットワーク(gnn)アーキテクチャは、時間相関を学ぶために異なる更新関数を持つ空間依存を抽出するために使用された。
これらの更新機能は、異なるニューラルネットワークアーキテクチャを使用して実装された。
このようなアーキテクチャの1つであるtransformerは、近年、シーケンスモデリングで人気が高まっている。
本研究は,Informer,LogSparse Transformer,Autoformerに焦点をあてた時系列予測を容易にするため,オリジナルのアーキテクチャのさまざまな変更が提案されている。
LogSparse Transformer と Autoformer が風速予測に適用されたのはこれが初めてであり、これらまたは Informer は風速予測のための時空間設定で初めて定式化された。
時空間長短期記憶(LSTM)とMLP(Multi-Layer Perceptron)モデルを比較して,GNNの更新関数として変換器アーキテクチャを改良したモデルの方が,これらのモデルより優れていることを示した。
さらに,信号分解に基づく新しい変圧器アーキテクチャである高速フーリエ変換器(fftransformer)を提案する。
FFTransformerとAutoformerは10分の予測と1時間の予測で優れた結果が得られ、FFTransformerは4時間の予測で他のすべてのモデルよりも大幅に優れていた。
最後に、グラフ表現の接続度を変化させることで、局所的な短期風速予測を改善するために、すべてのモデルが空間的依存をどのように活用できるかを明らかにした。
関連論文リスト
- PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - Are Self-Attentions Effective for Time Series Forecasting? [4.990206466948269]
時系列予測は、複数のドメインやさまざまなシナリオにわたるアプリケーションにとって不可欠である。
近年の研究では、より単純な線形モデルは、複雑なトランスフォーマーベースのアプローチよりも優れていることが示されている。
我々は、新しいアーキテクチャ、クロスアテンションのみの時系列変換器(CATS)を導入する。
提案モデルでは,平均二乗誤差が最小であり,既存のモデルに比べてパラメータが少ないため,性能が向上する。
論文 参考訳(メタデータ) (2024-05-27T06:49:39Z) - FourierGNN: Rethinking Multivariate Time Series Forecasting from a Pure
Graph Perspective [48.00240550685946]
現在の最先端グラフニューラルネットワーク(GNN)ベースの予測手法は、通常、シリーズ間(空間)のダイナミックスとシリーズ内(時間)の依存関係をキャプチャするために、グラフネットワーク(GCNなど)と時間ネットワーク(LSTMなど)の両方を必要とする。
提案するフーリエグラフ演算子(FGO)を積み重ねて,フーリエ空間で行列乗算を行うことにより,新しいフーリエグラフニューラルネットワーク(FourierGNN)を提案する。
7つのデータセットに対する実験は、より効率が良く、パラメータも少ないという優れた性能を示した。
論文 参考訳(メタデータ) (2023-11-10T17:13:26Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z) - Long-term Wind Power Forecasting with Hierarchical Spatial-Temporal
Transformer [112.12271800369741]
風力発電は、再生可能、汚染のないその他の利点により、世界中の注目を集めている。
正確な風力発電予測(WPF)は、電力系統の運用における電力変動を効果的に低減することができる。
既存の手法は主に短期的な予測のために設計されており、効果的な時空間的特徴増強が欠如している。
論文 参考訳(メタデータ) (2023-05-30T04:03:15Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Multi-Step Short-Term Wind Speed Prediction with Rank Pooling and Fast
Fourier Transformation [0.0]
短期的な風速予測は、経済的な風力利用に不可欠である。
現実の風速データは通常断続的で変動し、既存の浅いモデルに大きな課題をもたらす。
本稿では,多段風速予測,すなわちLR-FFT-RP-MLP/LSTMのための新しいハイブリッドモデルを提案する。
論文 参考訳(メタデータ) (2022-11-23T14:02:52Z) - Are Transformers Effective for Time Series Forecasting? [13.268196448051308]
近年、時系列予測(TSF)タスクのためのTransformerベースのソリューションが急増している。
本研究は,Transformer-based techniqueが長期時系列予測に適した解であるかどうかを考察する。
変換器をベースとした解の長期予測精度が比較的高いことは,変換器アーキテクチャの時間的関係抽出能力とはほとんど関係がないことがわかった。
論文 参考訳(メタデータ) (2022-05-26T17:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。