論文の概要: Deep Reinforcement Learning for Optimal Power Flow with Renewables Using
Spatial-Temporal Graph Information
- arxiv url: http://arxiv.org/abs/2112.11461v1
- Date: Wed, 22 Dec 2021 03:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 20:12:37.210582
- Title: Deep Reinforcement Learning for Optimal Power Flow with Renewables Using
Spatial-Temporal Graph Information
- Title(参考訳): 空間時間グラフ情報を用いた再生可能な最適潮流の深部強化学習
- Authors: Jinhao Li and Ruichang Zhang and Hao Wang and Zhi Liu and Hongyang Lai
and Yanru Zhang
- Abstract要約: 再生可能エネルギー資源(RER)は、特に大規模配電ネットワーク(DN)において、現代の電力システムに統合されつつある。
本稿では,DRL を用いた DN の最適動作点を動的に探索する手法を提案する。
- 参考スコア(独自算出の注目度): 11.76597661670075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Renewable energy resources (RERs) have been increasingly integrated into
modern power systems, especially in large-scale distribution networks (DNs). In
this paper, we propose a deep reinforcement learning (DRL)-based approach to
dynamically search for the optimal operation point, i.e., optimal power flow
(OPF), in DNs with a high uptake of RERs. Considering uncertainties and voltage
fluctuation issues caused by RERs, we formulate OPF into a multi-objective
optimization (MOO) problem. To solve the MOO problem, we develop a novel DRL
algorithm leveraging the graphical information of the distribution network.
Specifically, we employ the state-of-the-art DRL algorithm, i.e., deep
deterministic policy gradient (DDPG), to learn an optimal strategy for OPF.
Since power flow reallocation in the DN is a consecutive process, where nodes
are self-correlated and interrelated in temporal and spatial views, to make
full use of DNs' graphical information, we develop a multi-grained
attention-based spatial-temporal graph convolution network (MG-ASTGCN) for
spatial-temporal graph information extraction, preparing for its sequential
DDPG. We validate our proposed DRL-based approach in modified IEEE 33, 69, and
118-bus radial distribution systems (RDSs) and show that our DRL-based approach
outperforms other benchmark algorithms. Our experimental results also reveal
that MG-ASTGCN can significantly accelerate the DDPG training process and
improve DDPG's capability in reallocating power flow for OPF. The proposed
DRL-based approach also promotes DNs' stability in the presence of node faults,
especially for large-scale DNs.
- Abstract(参考訳): 再生可能エネルギー資源(RER)は、特に大規模配電ネットワーク(DN)において、現代の電力システムに統合されつつある。
本稿では,RERの獲得率が高いDNにおいて,最適動作点,すなわち最適電力フロー(OPF)を動的に探索する深部強化学習(DRL)に基づくアプローチを提案する。
RERによる不確実性と電圧変動の問題を考慮すると、OPFを多目的最適化(MOO)問題に定式化する。
このMOO問題を解決するために,分散ネットワークのグラフィカル情報を利用した新しいDRLアルゴリズムを開発した。
具体的には、最新のDRLアルゴリズム、すなわち、深い決定論的ポリシー勾配(DDPG)を用いて、OPFの最適戦略を学習する。
DNにおける電力フロー再配置は、ノードが時間的および空間的ビューで自己相関し相互関係を持つ連続的なプロセスであるため、DNのグラフィカル情報を完全に活用するために、空間時空間グラフ情報抽出のための多粒度注意に基づく空間時空間グラフ畳み込みネットワーク(MG-ASTGCN)を開発し、そのシーケンシャルDDPGに備える。
改良型IEEE 33, 69, 118バスラジアル分布系(RDS)におけるDRLベースのアプローチの有効性を検証し, DRLベースのアプローチが他のベンチマークアルゴリズムよりも優れていることを示す。
実験の結果,MG-ASTGCN は DDPG トレーニングプロセスを大幅に加速し,OPF における DDPG の効率を向上させることができることがわかった。
DRLに基づく提案手法は、特に大規模DNに対するノード故障の存在下でのDNsの安定性を促進する。
関連論文リスト
- RL-ADN: A High-Performance Deep Reinforcement Learning Environment for Optimal Energy Storage Systems Dispatch in Active Distribution Networks [0.0]
Deep Reinforcement Learning (DRL) は、分散ネットワークにおけるエネルギー貯蔵システム(ESS)のディスパッチを最適化するための有望な道を示す。
本稿では,アクティブな分散ネットワークにおける最適なESSのディスパッチを解決するために設計された,革新的なオープンソースライブラリであるRL-ADNを紹介する。
論文 参考訳(メタデータ) (2024-08-07T10:53:07Z) - Joint Admission Control and Resource Allocation of Virtual Network Embedding via Hierarchical Deep Reinforcement Learning [69.00997996453842]
本稿では,仮想ネットワークの埋め込みにおいて,入出力制御と資源配分を併用して学習する深層強化学習手法を提案する。
HRL-ACRAは,受入率と長期平均収益の両面で,最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-25T07:42:30Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Intelligent Hybrid Resource Allocation in MEC-assisted RAN Slicing Network [72.2456220035229]
我々は,協調型MEC支援RANスライシングシステムにおける異種サービス要求に対するSSRの最大化を目指す。
最適ハイブリッドRAポリシーをインテリジェントに学習するためのRGRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-02T01:36:13Z) - Decentralized Federated Reinforcement Learning for User-Centric Dynamic
TFDD Control [37.54493447920386]
非対称かつ不均一なトラフィック要求を満たすための学習に基づく動的時間周波数分割二重化(D-TFDD)方式を提案する。
分散化された部分観測可能なマルコフ決定過程(Dec-POMDP)として問題を定式化する。
本稿では,グローバルリソースを分散的に最適化するために,Wolpertinger Deep Deterministic Policy gradient (FWDDPG)アルゴリズムという,連合強化学習(RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-04T07:39:21Z) - Federated Deep Reinforcement Learning for the Distributed Control of
NextG Wireless Networks [16.12495409295754]
次世代(NextG)ネットワークは、拡張現実(AR)やコネクテッド・自律走行車といった、インターネットの触覚を必要とするアプリケーションをサポートすることが期待されている。
データ駆動アプローチは、現在の運用条件に適応するネットワークの能力を改善することができる。
深部RL(DRL)は複雑な環境においても良好な性能を発揮することが示されている。
論文 参考訳(メタデータ) (2021-12-07T03:13:20Z) - Resource Allocation via Model-Free Deep Learning in Free Space Optical
Communications [119.81868223344173]
本稿では,自由空間光学(FSO)通信におけるチャネルフェージング効果の緩和のための資源配分の一般的な問題について検討する。
本フレームワークでは,FSO資源割り当て問題を解決する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-27T17:38:51Z) - Distributed Uplink Beamforming in Cell-Free Networks Using Deep
Reinforcement Learning [25.579612460904873]
本稿では,集中処理,半分散処理,完全分散処理を備えたアップリンクセルフリーネットワークのためのビームフォーミング手法を提案する。
分散ビームフォーミング手法は,小規模ネットワークのみを対象とした集中学習によるDDPGアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-06-26T17:54:34Z) - Resource Allocation via Graph Neural Networks in Free Space Optical
Fronthaul Networks [119.81868223344173]
本稿では,自由空間光(FSO)フロントホールネットワークにおける最適資源割り当てについて検討する。
我々は、FSOネットワーク構造を利用するために、ポリシーパラメータ化のためのグラフニューラルネットワーク(GNN)を検討する。
本アルゴリズムは,システムモデルに関する知識が不要なモデルフリーでGNNを訓練するために開発された。
論文 参考訳(メタデータ) (2020-06-26T14:20:48Z) - Optimization-driven Deep Reinforcement Learning for Robust Beamforming
in IRS-assisted Wireless Communications [54.610318402371185]
Intelligent Reflecting Surface (IRS)は、マルチアンテナアクセスポイント(AP)から受信機へのダウンリンク情報伝達を支援する有望な技術である。
我々は、APのアクティブビームフォーミングとIRSのパッシブビームフォーミングを共同最適化することで、APの送信電力を最小化する。
過去の経験からビームフォーミング戦略に適応できる深層強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T01:42:55Z) - Stacked Auto Encoder Based Deep Reinforcement Learning for Online
Resource Scheduling in Large-Scale MEC Networks [44.40722828581203]
オンラインリソーススケジューリングフレームワークは、IoT(Internet of Things)の全ユーザに対して、重み付けされたタスクレイテンシの総和を最小化するために提案されている。
以下を含む深層強化学習(DRL)に基づく解法を提案する。
DRLがポリシーネットワークをトレーニングし、最適なオフロードポリシーを見つけるのを支援するために、保存および優先されたエクスペリエンスリプレイ(2p-ER)を導入する。
論文 参考訳(メタデータ) (2020-01-24T23:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。