論文の概要: Centrally Coordinated Multi-Agent Reinforcement Learning for Power Grid Topology Control
- arxiv url: http://arxiv.org/abs/2502.08681v1
- Date: Wed, 12 Feb 2025 10:16:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:49:20.718363
- Title: Centrally Coordinated Multi-Agent Reinforcement Learning for Power Grid Topology Control
- Title(参考訳): 電力グリッドトポロジ制御のための集中協調型マルチエージェント強化学習
- Authors: Barbera de Mol, Davide Barbieri, Jan Viebahn, Davide Grossi,
- Abstract要約: アクション空間の分解は、意思決定を小さなサブタスクに分解する。
CCMAアーキテクチャは、ベースラインアプローチよりも高いサンプリング効率と優れた最終性能を示す。
その結果,高次元L2RPNと実世界の電力グリッド設定のさらなる応用に向けたCCMA手法の可能性が示唆された。
- 参考スコア(独自算出の注目度): 4.949816699298336
- License:
- Abstract: Power grid operation is becoming more complex due to the increase in generation of renewable energy. The recent series of Learning To Run a Power Network (L2RPN) competitions have encouraged the use of artificial agents to assist human dispatchers in operating power grids. However, the combinatorial nature of the action space poses a challenge to both conventional optimizers and learned controllers. Action space factorization, which breaks down decision-making into smaller sub-tasks, is one approach to tackle the curse of dimensionality. In this study, we propose a centrally coordinated multi-agent (CCMA) architecture for action space factorization. In this approach, regional agents propose actions and subsequently a coordinating agent selects the final action. We investigate several implementations of the CCMA architecture, and benchmark in different experimental settings against various L2RPN baseline approaches. The CCMA architecture exhibits higher sample efficiency and superior final performance than the baseline approaches. The results suggest high potential of the CCMA approach for further application in higher-dimensional L2RPN as well as real-world power grid settings.
- Abstract(参考訳): 再生可能エネルギーの発生の増加により電力グリッドの運用は複雑化しつつある。
近年のL2RPN(Learning To Run a Power Network)コンペティションでは、人間の送電網の運用を支援するために人工エージェントの使用が奨励されている。
しかし、アクション空間の組合せの性質は、従来のオプティマイザと学習コントローラの両方に課題をもたらす。
行動空間の分解は、意思決定を小さなサブタスクに分解するものであり、次元性の呪いに取り組むための一つのアプローチである。
本研究では,行動空間因子化のための中央協調型マルチエージェント(CCMA)アーキテクチャを提案する。
このアプローチでは、地域エージェントがアクションを提案し、その後、調整エージェントが最終アクションを選択する。
CCMAアーキテクチャのいくつかの実装について検討し、様々なL2RPNベースラインアプローチに対して異なる実験環境でベンチマークを行う。
CCMAアーキテクチャは、ベースラインアプローチよりも高いサンプリング効率と優れた最終性能を示す。
その結果,高次元L2RPNと実世界の電力グリッド設定において,CCMAアプローチのさらなる応用の可能性が示唆された。
関連論文リスト
- State and Action Factorization in Power Grids [47.65236082304256]
状態と行動成分の相関関係をデータに基づいて推定するドメインに依存しないアルゴリズムを提案する。
このアルゴリズムはGrid2Opシミュレータで得られた電力グリッドベンチマークで検証される。
論文 参考訳(メタデータ) (2024-09-03T15:00:58Z) - Design Optimization of NOMA Aided Multi-STAR-RIS for Indoor Environments: A Convex Approximation Imitated Reinforcement Learning Approach [51.63921041249406]
非直交多重アクセス(Noma)により、複数のユーザが同じ周波数帯域を共有でき、同時に再構成可能なインテリジェントサーフェス(STAR-RIS)を送信および反射することができる。
STAR-RISを屋内に展開することは、干渉緩和、電力消費、リアルタイム設定における課題を提示する。
複数のアクセスポイント(AP)、STAR-RIS、NOMAを利用した新しいネットワークアーキテクチャが屋内通信のために提案されている。
論文 参考訳(メタデータ) (2024-06-19T07:17:04Z) - Multi-Agent Reinforcement Learning for Power Grid Topology Optimization [45.74830585715129]
本稿では,拡張行動空間に適した階層型マルチエージェント強化学習(MARL)フレームワークを提案する。
実験結果から, 単エージェントRL法とMARLフレームワークの競合性能が示唆された。
また、下位エージェントに対する異なるRLアルゴリズムと上位エージェントに対する異なるポリシーを比較した。
論文 参考訳(メタデータ) (2023-10-04T06:37:43Z) - Reinforcement Learning Based Power Grid Day-Ahead Planning and
AI-Assisted Control [0.27998963147546135]
本稿では,再分散エージェントと機械学習に基づく最適化エージェントを組み合わせた渋滞管理手法を提案する。
典型的な再配置専用エージェントと比較して、シミュレーショングリッドの動作を長く保ちながら、同時に運用コストを削減できた。
本研究の目的は,この有望な技術を電力グリッド運用の現実に近づけることである。
論文 参考訳(メタデータ) (2023-02-15T13:38:40Z) - Stabilizing Voltage in Power Distribution Networks via Multi-Agent
Reinforcement Learning with Transformer [128.19212716007794]
本稿では,変圧器を用いたマルチエージェント・アクタ・クリティカル・フレームワーク(T-MAAC)を提案する。
さらに、電圧制御タスクに適した新しい補助タスクトレーニングプロセスを採用し、サンプル効率を向上する。
論文 参考訳(メタデータ) (2022-06-08T07:48:42Z) - Joint Energy Dispatch and Unit Commitment in Microgrids Based on Deep
Reinforcement Learning [6.708717040312532]
本稿では,統合エネルギー派遣(ED)と単位コミットメント(UC)を分離したマイクログリッドで決定するための最適な政策を学習するために,深部強化学習(DRL)を適用した。
本稿では、2つの古典的DRLアルゴリズムをシームレスに統合するDRLアルゴリズム,すなわちハイブリッドアクション有限水平DDPG(HAFH-DDPG)を提案する。
ディーゼル発電機(DG)選択戦略を提示し、このアルゴリズムの計算複雑性を低減するため、簡易な動作空間をサポートする。
論文 参考訳(メタデータ) (2022-06-03T16:22:03Z) - Optimization for Master-UAV-powered Auxiliary-Aerial-IRS-assisted IoT
Networks: An Option-based Multi-agent Hierarchical Deep Reinforcement
Learning Approach [56.84948632954274]
本稿では,無人航空機(MUAV)搭載のIoT(Internet of Things)ネットワークについて検討する。
本稿では、インテリジェント反射面(IRS)を備えた充電可能な補助UAV(AUAV)を用いて、MUAVからの通信信号を強化することを提案する。
提案モデルでは,IoTネットワークの蓄積スループットを最大化するために,これらのエネルギー制限されたUAVの最適協調戦略について検討する。
論文 参考訳(メタデータ) (2021-12-20T15:45:28Z) - Scalable Voltage Control using Structure-Driven Hierarchical Deep
Reinforcement Learning [0.0]
本稿では,新しい階層型深層強化学習(drl)による電力系統の電圧制御設計を提案する。
本研究では,電力系統の領域分割構造を利用して,大規模グリッドモデルに適用可能な階層型drl設計を提案する。
地域別分散型RLエージェントを訓練し、各エリアの低レベルポリシーを算出し、低レベルポリシーの更新を使用して低レベルエージェントが行う制御アクションを効率的に調整する高レベルDRLエージェントを同時トレーニングします。
論文 参考訳(メタデータ) (2021-01-29T21:30:59Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。