論文の概要: Optimal Power Flow Based on Physical-Model-Integrated Neural Network
with Worth-Learning Data Generation
- arxiv url: http://arxiv.org/abs/2301.03766v1
- Date: Tue, 10 Jan 2023 03:06:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 17:47:48.442195
- Title: Optimal Power Flow Based on Physical-Model-Integrated Neural Network
with Worth-Learning Data Generation
- Title(参考訳): 価値学習データ生成を用いた物理モデル統合ニューラルネットワークによる最適電力フロー
- Authors: Zuntao Hu and Hongcai Zhang
- Abstract要約: 本稿では,物理モデル統合ニューラルネットワーク(NN)に基づくOPF解法を提案する。
提案手法は,従来のNN解法に比べて50%以上の制約違反と最適性損失を減少させることを示した。
- 参考スコア(独自算出の注目度): 1.370633147306388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast and reliable solvers for optimal power flow (OPF) problems are
attracting surging research interest. As surrogates of physical-model-based OPF
solvers, neural network (NN) solvers can accelerate the solving process.
However, they may be unreliable for ``unseen" inputs when the training dataset
is unrepresentative. Enhancing the representativeness of the training dataset
for NN solvers is indispensable but is not well studied in the literature. To
tackle this challenge, we propose an OPF solver based on a
physical-model-integrated NN with worth-learning data generation. The designed
NN is a combination of a conventional multi-layer perceptron (MLP) and an
OPF-model module, which outputs not only the optimal decision variables of the
OPF problem but also the constraints violation degree. Based on this NN, the
worth-learning data generation method can identify feasible samples that are
not well generalized by the NN. By iteratively applying this method and
including the newly identified worth-learning samples in the training set, the
representativeness of the training set can be significantly enhanced.
Therefore, the solution reliability of the NN solver can be remarkably
improved. Experimental results show that the proposed method leads to an over
50% reduction of constraint violations and optimality loss compared to
conventional NN solvers.
- Abstract(参考訳): 最適潮流(OPF)問題に対する高速で信頼性の高い解法が研究の関心を喚起している。
物理モデルに基づくOPFソルバのサロゲートとして、ニューラルネットワーク(NN)ソルバは解決プロセスを加速することができる。
しかし、トレーニングデータセットが表現できない場合、`unseen'入力に対して信頼できない場合がある。
NNソルバのトレーニングデータセットの代表性を高めることは不可欠であるが、文献では十分に研究されていない。
この課題に対処するため、我々は、価値学習データ生成を伴う物理モデル統合NNに基づくOPFソルバを提案する。
設計NNは、従来の多層パーセプトロン(MLP)とOPFモデルモジュールの組み合わせであり、OPF問題の最適決定変数だけでなく、制約違反度も出力する。
このNNに基づいて、NNが十分に一般化していない有意義なサンプルを識別する価値学習データ生成手法を提案する。
この方法を繰り返し適用し、新たに特定した価値学習サンプルをトレーニングセットに含むことにより、トレーニングセットの表現性を大幅に向上させることができる。
したがって、NNソルバのソリューション信頼性を著しく向上させることができる。
実験の結果,提案手法は従来のNN解法に比べて50%以上の制約違反と最適性損失を減少させることがわかった。
関連論文リスト
- A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Training Latency Minimization for Model-Splitting Allowed Federated Edge
Learning [16.8717239856441]
我々は,深層ニューラルネットワーク(DNN)の訓練において,クライアントが直面する計算能力の不足を軽減するためのモデル分割許容FL(SFL)フレームワークを提案する。
同期したグローバルアップデート設定では、グローバルトレーニングを完了するためのレイテンシは、クライアントがローカルトレーニングセッションを完了するための最大レイテンシによって決定される。
この混合整数非線形計画問題の解法として,AIモデルのカット層と他のパラメータの量的関係に適合する回帰法を提案し,TLMPを連続的な問題に変換する。
論文 参考訳(メタデータ) (2023-07-21T12:26:42Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Leveraging power grid topology in machine learning assisted optimal
power flow [0.5076419064097734]
機械学習支援最適電力フロー(OPF)は、非線形および非制約電力フロー問題の計算複雑性を低減することを目的としている。
我々は,機械支援OPFの2つの基本的アプローチに対して,さまざまなFCNN,CNN,GNNモデルの性能を評価する。
相互接続されたユーティリティを持ついくつかの合成格子に対して,特徴変数と対象変数の間の局所性特性は乏しいことを示す。
論文 参考訳(メタデータ) (2021-10-01T10:39:53Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。