論文の概要: Distributed Voltage Regulation of Active Distribution System Based on
Enhanced Multi-agent Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2006.00546v1
- Date: Sun, 31 May 2020 15:48:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 13:00:30.770432
- Title: Distributed Voltage Regulation of Active Distribution System Based on
Enhanced Multi-agent Deep Reinforcement Learning
- Title(参考訳): 強化多エージェント深部強化学習に基づくアクティブ配電システムの分散電圧制御
- Authors: Di Cao, Junbo Zhao, Weihao Hu, Fei Ding, Qi Huang, Zhe Chen
- Abstract要約: 本稿では,スペクトルクラスタリングと拡張マルチエージェント深部強化学習(MADRL)アルゴリズムに基づくデータ駆動分散電圧制御手法を提案する。
提案手法は,システムパラメータの通信と知識の要求を大幅に低減することができる。
また、不確実性を効果的に処理し、最新のローカル情報に基づいたオンライン協調制御を提供する。
- 参考スコア(独自算出の注目度): 9.7314654861242
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a data-driven distributed voltage control approach based
on the spectrum clustering and the enhanced multi-agent deep reinforcement
learning (MADRL) algorithm. Via the unsupervised clustering, the whole
distribution system can be decomposed into several sub-networks according to
the voltage and reactive power sensitivity. Then, the distributed control
problem of each sub-network is modeled as Markov games and solved by the
enhanced MADRL algorithm, where each sub-network is modeled as an adaptive
agent. Deep neural networks are used in each agent to approximate the policy
function and the action value function. All agents are centrally trained to
learn the optimal coordinated voltage regulation strategy while executed in a
distributed manner to make decisions based on only local information. The
proposed method can significantly reduce the requirements of communications and
knowledge of system parameters. It also effectively deals with uncertainties
and can provide online coordinated control based on the latest local
information. Comparison results with other existing model-based and data-driven
methods on IEEE 33-bus and 123-bus systems demonstrate the effectiveness and
benefits of the proposed approach.
- Abstract(参考訳): 本稿では,スペクトルクラスタリングと拡張型マルチエージェント深層強化学習(madrl)アルゴリズムに基づくデータ駆動分散電圧制御手法を提案する。
教師なしクラスタリングによって、システム全体を電圧と反応性の電力感度に応じて複数のサブネットワークに分解することができる。
次に、各サブネットワークの分散制御問題をマルコフゲームとしてモデル化し、各サブネットワークを適応エージェントとしてモデル化する拡張MADRLアルゴリズムにより解決する。
ディープニューラルネットワークは各エージェントでポリシー関数とアクション値関数を近似するために使用される。
すべてのエージェントは、ローカル情報のみに基づいて意思決定を行う分散方式で実行しながら、最適な調整電圧調整戦略を学ぶために集中的に訓練される。
提案手法は,システムパラメータの通信と知識の要求を大幅に低減することができる。
また、不確実性を効果的に処理し、最新のローカル情報に基づいたオンライン協調制御を提供する。
IEEE 33-bus と 123-bus の既存のモデルベースおよびデータ駆動方式との比較により,提案手法の有効性とメリットが示された。
関連論文リスト
- Augmented Lagrangian-Based Safe Reinforcement Learning Approach for Distribution System Volt/VAR Control [1.1059341532498634]
本稿では,Volt-VAR制御問題をマルコフ決定過程(CMDP)として定式化する。
本稿では, CMDP を解くために, 安全な非政治強化学習(RL)手法を提案する。
オフライントレーニングとオンライン実行には2段階の戦略が採用されているため、正確な分散システムモデルはもはや不要である。
論文 参考訳(メタデータ) (2024-10-19T19:45:09Z) - Design Optimization of NOMA Aided Multi-STAR-RIS for Indoor Environments: A Convex Approximation Imitated Reinforcement Learning Approach [51.63921041249406]
非直交多重アクセス(Noma)により、複数のユーザが同じ周波数帯域を共有でき、同時に再構成可能なインテリジェントサーフェス(STAR-RIS)を送信および反射することができる。
STAR-RISを屋内に展開することは、干渉緩和、電力消費、リアルタイム設定における課題を提示する。
複数のアクセスポイント(AP)、STAR-RIS、NOMAを利用した新しいネットワークアーキテクチャが屋内通信のために提案されている。
論文 参考訳(メタデータ) (2024-06-19T07:17:04Z) - Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [94.2860766709971]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Learning Autonomy in Management of Wireless Random Networks [102.02142856863563]
本稿では,任意の数のランダム接続ノードを持つ無線ネットワークにおいて,分散最適化タスクに取り組む機械学習戦略を提案する。
我々は,ネットワークトポロジとは無関係に,前方および後方に計算を行う分散メッセージパスニューラルネットワーク(DMPNN)と呼ばれる,柔軟な深層ニューラルネットワーク形式を開発した。
論文 参考訳(メタデータ) (2021-06-15T09:03:28Z) - Distributed Algorithms for Linearly-Solvable Optimal Control in
Networked Multi-Agent Systems [15.782670973813774]
ネットワーク化されたMASの最適制御問題を複数の局所最適制御問題に分割する分散フレームワークを提案する。
離散時間系では、各サブシステムの合同ベルマン方程式は線形方程式系に変換される。
連続時間系では、各サブシステムの合同最適方程式は線形偏微分方程式に変換される。
論文 参考訳(メタデータ) (2021-02-18T01:31:17Z) - Scalable Voltage Control using Structure-Driven Hierarchical Deep
Reinforcement Learning [0.0]
本稿では,新しい階層型深層強化学習(drl)による電力系統の電圧制御設計を提案する。
本研究では,電力系統の領域分割構造を利用して,大規模グリッドモデルに適用可能な階層型drl設計を提案する。
地域別分散型RLエージェントを訓練し、各エリアの低レベルポリシーを算出し、低レベルポリシーの更新を使用して低レベルエージェントが行う制御アクションを効率的に調整する高レベルDRLエージェントを同時トレーニングします。
論文 参考訳(メタデータ) (2021-01-29T21:30:59Z) - Lyapunov-Based Reinforcement Learning for Decentralized Multi-Agent
Control [3.3788926259119645]
分散マルチエージェント制御では、システムは未知あるいは非常に不確実なダイナミクスで複雑である。
深層強化学習(DRL)は、システムダイナミクスを知らずに、データからコントローラや政治を学ぶことを約束している。
既存のマルチエージェント強化学習(MARL)アルゴリズムは、マルチエージェントシステムの閉ループ安定性を保証することができない。
安定保証付き分散マルチエージェント制御のための新しいMARLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-20T06:11:42Z) - Consensus Multi-Agent Reinforcement Learning for Volt-VAR Control in
Power Distribution Networks [8.472603460083375]
VVC問題を解くために,コンセンサス多エージェント深部強化学習アルゴリズムを提案する。
提案アルゴリズムでは,各エージェントが局所報酬を用いてグループ制御ポリシーを学習することができる。
IEEE分散テストフィードの数値的研究により,提案アルゴリズムは単エージェント強化学習ベンチマークの性能と一致していることがわかった。
論文 参考訳(メタデータ) (2020-07-06T18:21:47Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。