論文の概要: Wind Park Power Prediction: Attention-Based Graph Networks and Deep
Learning to Capture Wake Losses
- arxiv url: http://arxiv.org/abs/2201.03229v1
- Date: Mon, 10 Jan 2022 09:30:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 14:48:43.165128
- Title: Wind Park Power Prediction: Attention-Based Graph Networks and Deep
Learning to Capture Wake Losses
- Title(参考訳): ウィンドパーク電力予測:注意に基づくグラフネットワークとディープラーニングによるウェイク損失のキャプチャ
- Authors: Lars {\O}degaard Bentsen, Narada Dilp Warakagoda, Roy Stenbro and Paal
Engelstad
- Abstract要約: 本稿では,グラフブロックの任意のコンポーネントに注目を適用可能な,注目に基づくグラフニューラルネットワーク(GNN)のためのモジュラーフレームワークを提案する。
その結果,多層パーセプトロン (MLP) と双方向LSTM (BLSTM) モデルでは,バニラGNNモデルと同等の性能を実現した。
- 参考スコア(独自算出の注目度): 1.278093617645299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increased penetration of wind energy into the power grid, it has
become increasingly important to be able to predict the expected power
production for larger wind farms. Deep learning (DL) models can learn complex
patterns in the data and have found wide success in predicting wake losses and
expected power production. This paper proposes a modular framework for
attention-based graph neural networks (GNN), where attention can be applied to
any desired component of a graph block. The results show that the model
significantly outperforms a multilayer perceptron (MLP) and a bidirectional
LSTM (BLSTM) model, while delivering performance on-par with a vanilla GNN
model. Moreover, we argue that the proposed graph attention architecture can
easily adapt to different applications by offering flexibility into the desired
attention operations to be used, which might depend on the specific
application. Through analysis of the attention weights, it was showed that
employing attention-based GNNs can provide insights into what the models learn.
In particular, the attention networks seemed to realise turbine dependencies
that aligned with some physical intuition about wake losses.
- Abstract(参考訳): 電力網への風力エネルギーの浸透が増大するにつれて、より大きな風力発電所の電力生産を予測できることがますます重要になっている。
ディープラーニング(DL)モデルは、データの複雑なパターンを学習し、覚醒損失と期待される電力生産を予測することに成功している。
本稿では,グラフブロックの任意のコンポーネントに注目を適用可能な,注目に基づくグラフニューラルネットワーク(GNN)のモジュール化フレームワークを提案する。
その結果,多層型パーセプトロン (mlp) と双方向型lstm (blstm) モデルに有意に優れ, バニラgnnモデルと同等の性能を提供することができた。
さらに,提案するグラフアテンションアーキテクチャは,特定のアプリケーションに依存する可能性のある所望のアテンション操作に柔軟性を提供することにより,異なるアプリケーションに容易に適応できると主張する。
注意重みの分析を通じて,注意に基づくgnnを用いることで,モデルが学ぶことに対する洞察が得られることを示した。
特にアテンションネットワークは、航続損失に関する物理的な直観と一致したタービン依存に気付くように見えた。
関連論文リスト
- Scalable Message Passing Neural Networks: No Need for Attention in Large Graph Representation Learning [15.317501970096743]
我々は、標準畳み込みメッセージパッシングを注意の代わりにプレ層正規化トランスフォーマースタイルのブロックに統合することにより、高性能なディープメッセージパッシングベースグラフニューラルネットワーク(GNN)を実現できることを示す。
結果は、大グラフトランスダクティブ学習における最先端の最先端と競合するが、それ以外は計算的かつメモリ拡張的な注意機構を必要としない。
論文 参考訳(メタデータ) (2024-10-29T17:18:43Z) - Joint Feature and Differentiable $ k $-NN Graph Learning using Dirichlet
Energy [103.74640329539389]
特徴選択と識別可能な$k $-NNグラフ学習を同時に行うディープFS法を提案する。
我々は、ニューラルネットワークで$ k $-NNグラフを学習する際の非微分可能性問題に対処するために、最適輸送理論を用いる。
本モデルの有効性を,合成データセットと実世界のデータセットの両方で広範な実験により検証する。
論文 参考訳(メタデータ) (2023-05-21T08:15:55Z) - EasyDGL: Encode, Train and Interpret for Continuous-time Dynamic Graph Learning [92.71579608528907]
本稿では,3つのモジュールから構成される使い勝手の良いパイプライン(EasyDGL)を設計することを目的とする。
EasyDGLは、進化するグラフデータからモデルが学習する周波数コンテンツの予測力を効果的に定量化することができる。
論文 参考訳(メタデータ) (2023-03-22T06:35:08Z) - End-to-end Wind Turbine Wake Modelling with Deep Graph Representation
Learning [7.850747042819504]
本研究は,グラフニューラルネットワークと呼ばれるグラフ表現学習法に基づいて,風力タービンウェイクの表現のための代理モデルを提案する。
提案するエンドツーエンドディープラーニングモデルは、非構造化メッシュ上で直接動作し、高忠実度データに対して検証されている。
実世界の風力発電所に基づくケーススタディでは,提案手法による大規模発電予測の可能性をさらに実証する。
論文 参考訳(メタデータ) (2022-11-24T15:00:06Z) - Evaluating Distribution System Reliability with Hyperstructures Graph
Convolutional Nets [74.51865676466056]
本稿では,グラフ畳み込みネットワークとハイパー構造表現学習フレームワークを,精度,信頼性,計算効率のよい分散グリッド計画に活用する方法を示す。
数値実験の結果,提案手法は計算効率を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2022-11-14T01:29:09Z) - Spiking Graph Convolutional Networks [19.36064180392385]
SpikingGCNは、GCNの埋め込みとSNNの生体忠実性特性を統合することを目的としたエンドツーエンドフレームワークである。
ニューロモルフィックチップ上でのスパイキングGCNは、グラフデータ解析にエネルギー効率の明確な利点をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-05T16:44:36Z) - Graph Joint Attention Networks [24.258699912448257]
グラフアテンションネットワーク(GAT)は、グラフ構造化データから学習するための強力なツールとして認識されている。
上記の課題に対処するために,グラフジョイント・アテンション・ネットワーク(JAT)を提案する。
JATは、ノード特徴間の相対的重要性を自動的に決定できる新しい共同注意機構を採用している。
我々は理論的にJATの表現力を分析し、さらに共同注意機構の改善戦略を提案する。
論文 参考訳(メタデータ) (2021-02-05T12:51:47Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Attentive Graph Neural Networks for Few-Shot Learning [74.01069516079379]
グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
論文 参考訳(メタデータ) (2020-07-14T07:43:09Z) - Graph Neural Networks for Leveraging Industrial Equipment Structure: An
application to Remaining Useful Life Estimation [21.297461316329453]
本稿では,複雑な機器の構造をグラフ形式で把握し,マルチセンサ時系列データをモデル化するためにグラフニューラルネットワーク(GNN)を用いる。
我々は,提案したGNNに基づくRUL推定モデルが,RNNやCNNをベースとした文学からの強いベースラインと好意的に比較した。
論文 参考訳(メタデータ) (2020-06-30T06:38:08Z) - Spectral Graph Attention Network with Fast Eigen-approximation [103.93113062682633]
スペクトルグラフ注意ネットワーク(SpGAT)は、重み付きフィルタとグラフウェーブレットベースに関する異なる周波数成分の表現を学習する。
固有分解による計算コストを削減するために,高速近似変種SpGAT-Chebyを提案する。
半教師付きノード分類タスクにおけるSpGATとSpGAT-Chebyの性能を徹底的に評価する。
論文 参考訳(メタデータ) (2020-03-16T21:49:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。