論文の概要: Optimizing Power Grid Topologies with Reinforcement Learning: A Survey of Methods and Challenges
- arxiv url: http://arxiv.org/abs/2504.08210v1
- Date: Fri, 11 Apr 2025 02:27:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:20:27.857755
- Title: Optimizing Power Grid Topologies with Reinforcement Learning: A Survey of Methods and Challenges
- Title(参考訳): 強化学習による電力グリッドトポロジの最適化:方法と課題の調査
- Authors: Erica van der Sar, Alessandro Zocca, Sandjai Bhulai,
- Abstract要約: 電力ネットワーク制御(PNC)への有望なアプローチとして強化学習(RL)が登場した。
本稿では電力グリッドトポロジ最適化のためのRLアプリケーションの概要を紹介する。
- 参考スコア(独自算出の注目度): 42.642008092347986
- License:
- Abstract: Power grid operation is becoming increasingly complex due to the rising integration of renewable energy sources and the need for more adaptive control strategies. Reinforcement Learning (RL) has emerged as a promising approach to power network control (PNC), offering the potential to enhance decision-making in dynamic and uncertain environments. The Learning To Run a Power Network (L2RPN) competitions have played a key role in accelerating research by providing standardized benchmarks and problem formulations, leading to rapid advancements in RL-based methods. This survey provides a comprehensive and structured overview of RL applications for power grid topology optimization, categorizing existing techniques, highlighting key design choices, and identifying gaps in current research. Additionally, we present a comparative numerical study evaluating the impact of commonly applied RL-based methods, offering insights into their practical effectiveness. By consolidating existing research and outlining open challenges, this survey aims to provide a foundation for future advancements in RL-driven power grid optimization.
- Abstract(参考訳): 再生可能エネルギー源の統合と、より適応的な制御戦略の必要性により、電力グリッドの運用はますます複雑になりつつある。
強化学習(Reinforcement Learning, RL)は、動的かつ不確実な環境における意思決定を強化する可能性を提供する、電力ネットワーク制御(PNC)への有望なアプローチとして登場した。
Learning To Run a Power Network (L2RPN)コンペティションは、標準化されたベンチマークと問題定式化を提供することによって研究の加速に重要な役割を果たし、RLベースの手法の急速な進歩をもたらした。
このサーベイは、電力グリッドトポロジ最適化のためのRLアプリケーションの包括的かつ構造化された概要、既存のテクニックの分類、重要な設計選択のハイライト、そして現在の研究におけるギャップの特定を提供する。
さらに, 一般に適用されているRL法の効果を比較検討し, その実用性について考察した。
本調査は,既存の研究を統合し,オープンな課題を概説することによって,RL駆動電力グリッド最適化の今後の発展のための基盤を提供することを目的とする。
関連論文リスト
- A Comprehensive Survey of Reinforcement Learning: From Algorithms to Practical Challenges [2.2448567386846916]
強化学習(RL)は人工知能(AI)の強力なパラダイムとして登場した。
本稿では,多種多様なアルゴリズムを巧みに分析するRLの包括的調査を行う。
我々は、RLアルゴリズムの選択と実装に関する実践的な洞察を提供し、収束、安定性、探索-探索ジレンマといった共通の課題に対処する。
論文 参考訳(メタデータ) (2024-11-28T03:53:14Z) - Advanced Intelligent Optimization Algorithms for Multi-Objective Optimal Power Flow in Future Power Systems: A Review [1.450405446885067]
多目的最適潮流(MOPF)へのインテリジェント最適化アルゴリズムの適用について
再生可能エネルギーの統合、スマートグリッド、エネルギー需要の増加による課題を掘り下げている。
アルゴリズムの選択は、現在ある特定のMOPF問題に近づき、ハイブリッドアプローチは大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-04-14T09:44:08Z) - Bridging Evolutionary Algorithms and Reinforcement Learning: A Comprehensive Survey on Hybrid Algorithms [50.91348344666895]
進化的強化学習(ERL)は進化的アルゴリズム(EA)と強化学習(RL)を統合して最適化する。
本調査では,ERLの多様な研究分野について概観する。
論文 参考訳(メタデータ) (2024-01-22T14:06:37Z) - Deep Reinforcement Learning for Community Battery Scheduling under
Uncertainties of Load, PV Generation, and Energy Prices [5.694872363688119]
本稿では,不確実性が存在する場合に,コミュニティバッテリーシステムのスケジューリングを行うための深層強化学習(RL)戦略を提案する。
コミュニティバッテリーは、ローカルPVエネルギーの統合、ピーク負荷の低減、および調停のためのエネルギー価格変動の活用において、多用途の役割を担っている。
論文 参考訳(メタデータ) (2023-12-04T13:45:17Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Jump-Start Reinforcement Learning [68.82380421479675]
本稿では、オフラインデータやデモ、あるいは既存のポリシーを使ってRLポリシーを初期化するメタアルゴリズムを提案する。
特に,タスク解決に2つのポリシーを利用するアルゴリズムであるJump-Start Reinforcement Learning (JSRL)を提案する。
実験により、JSRLは既存の模倣と強化学習アルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:25:22Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - A Heuristically Assisted Deep Reinforcement Learning Approach for
Network Slice Placement [0.7885276250519428]
本稿では,Deep Reinforcement Learning(DRL)に基づくハイブリッド配置ソリューションと,Power of Two Choices原則に基づく専用最適化を提案する。
提案したHuristically-Assisted DRL (HA-DRL) は,他の最先端手法と比較して学習プロセスの高速化と資源利用の促進を可能にする。
論文 参考訳(メタデータ) (2021-05-14T10:04:17Z) - Rethink AI-based Power Grid Control: Diving Into Algorithm Design [6.194042945960622]
本稿では、アルゴリズム選択、状態空間表現、および報酬工学の側面からDRLベースの電圧制御の詳細な分析について述べる。
本稿では,電力グリッドの動作点を直接効果的な動作にマッピングする模倣学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-12-23T23:38:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。