論文の概要: Reinforcement Learning for Resilient Power Grids
- arxiv url: http://arxiv.org/abs/2212.04069v1
- Date: Thu, 8 Dec 2022 04:40:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 16:44:43.469054
- Title: Reinforcement Learning for Resilient Power Grids
- Title(参考訳): 弾力性電力グリッドの強化学習
- Authors: Zhenting Zhao, Po-Yen Chen, Yucheng Jin
- Abstract要約: 従来の送電網は、より頻繁で極端な自然災害の下で時代遅れになっている。
ほとんどの電力グリッドシミュレータとRLインタフェースは、大規模なブラックアウトやネットワークがサブネットワークに分割された場合の電力グリッドのシミュレーションをサポートしない。
本研究では,既存のシミュレータとRLインタフェースであるGrid2Op上に構築された電力グリッドシミュレータを提案し,Grid2Opの動作と観測空間を制限する実験を行った。
- 参考スコア(独自算出の注目度): 0.23204178451683263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional power grid systems have become obsolete under more frequent and
extreme natural disasters. Reinforcement learning (RL) has been a promising
solution for resilience given its successful history of power grid control.
However, most power grid simulators and RL interfaces do not support simulation
of power grid under large-scale blackouts or when the network is divided into
sub-networks. In this study, we proposed an updated power grid simulator built
on Grid2Op, an existing simulator and RL interface, and experimented on
limiting the action and observation spaces of Grid2Op. By testing with DDQN and
SliceRDQN algorithms, we found that reduced action spaces significantly improve
training performance and efficiency. In addition, we investigated a low-rank
neural network regularization method for deep Q-learning, one of the most
widely used RL algorithms, in this power grid control scenario. As a result,
the experiment demonstrated that in the power grid simulation environment,
adopting this method will significantly increase the performance of RL agents.
- Abstract(参考訳): 従来の電力系統は、より頻繁で極端な自然災害で時代遅れになっている。
強化学習(rl)は、電力グリッド制御の成功の歴史を考えると、レジリエンスにとって有望なソリューションである。
しかし、ほとんどの電力グリッドシミュレータとRLインタフェースは、大規模な停電やネットワークがサブネットワークに分割された場合の電力グリッドのシミュレーションをサポートしない。
本研究では,既存のシミュレータとRLインタフェースであるGrid2Op上に構築された電力グリッドシミュレータを提案し,Grid2Opの動作と観測空間を制限する実験を行った。
DDQNとSliceRDQNのアルゴリズムを用いて実験した結果,動作空間の縮小がトレーニング性能と効率を著しく向上することがわかった。
さらに,このパワーグリッド制御シナリオにおいて,最も広く用いられているrlアルゴリズムの1つである深層q-learningのための低ランクニューラルネットワーク正規化法について検討した。
その結果, この手法を応用した電力系統シミュレーション環境では, rlエージェントの性能が著しく向上することを示した。
関連論文リスト
- State and Action Factorization in Power Grids [47.65236082304256]
状態と行動成分の相関関係をデータに基づいて推定するドメインに依存しないアルゴリズムを提案する。
このアルゴリズムはGrid2Opシミュレータで得られた電力グリッドベンチマークで検証される。
論文 参考訳(メタデータ) (2024-09-03T15:00:58Z) - Managing power grids through topology actions: A comparative study
between advanced rule-based and reinforcement learning agents [1.8549313085249322]
電力網の運用は、現在の高潮と再生可能エネルギー生産の増加により、ますます複雑になっている。
強化学習(Reinforcement Learning)は効率的かつ信頼性の高い手法であり,グリッドの自動操作の可能性も高いことが示されている。
本稿では、Binbinchenから提出されたエージェントを分析し、RLとルールベースのアプローチの両方において、エージェントを改善するための新しい戦略を提供する。
論文 参考訳(メタデータ) (2023-04-03T07:34:43Z) - Reinforcement Learning Based Power Grid Day-Ahead Planning and
AI-Assisted Control [0.27998963147546135]
本稿では,再分散エージェントと機械学習に基づく最適化エージェントを組み合わせた渋滞管理手法を提案する。
典型的な再配置専用エージェントと比較して、シミュレーショングリッドの動作を長く保ちながら、同時に運用コストを削減できた。
本研究の目的は,この有望な技術を電力グリッド運用の現実に近づけることである。
論文 参考訳(メタデータ) (2023-02-15T13:38:40Z) - Distributed Energy Management and Demand Response in Smart Grids: A
Multi-Agent Deep Reinforcement Learning Framework [53.97223237572147]
本稿では、自律制御と再生可能エネルギー資源のスマート電力グリッドシステムへの統合のための多エージェント深層強化学習(DRL)フレームワークを提案する。
特に,提案フレームワークは,住宅利用者に対する需要応答 (DR) と分散エネルギー管理 (DEM) を共同で検討している。
論文 参考訳(メタデータ) (2022-11-29T01:18:58Z) - Stabilizing Voltage in Power Distribution Networks via Multi-Agent
Reinforcement Learning with Transformer [128.19212716007794]
本稿では,変圧器を用いたマルチエージェント・アクタ・クリティカル・フレームワーク(T-MAAC)を提案する。
さらに、電圧制御タスクに適した新しい補助タスクトレーニングプロセスを採用し、サンプル効率を向上する。
論文 参考訳(メタデータ) (2022-06-08T07:48:42Z) - Curriculum Based Reinforcement Learning of Grid Topology Controllers to
Prevent Thermal Cascading [0.19116784879310028]
本稿では,電力系統演算子のドメイン知識を強化学習フレームワークに統合する方法について述べる。
環境を改良することにより、報酬チューニングを伴うカリキュラムベースのアプローチをトレーニング手順に組み込む。
複数のシナリオに対する並列トレーニングアプローチは、エージェントをいくつかのシナリオに偏りなくし、グリッド操作の自然変動に対して堅牢にするために使用される。
論文 参考訳(メタデータ) (2021-12-18T20:32:05Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - Reinforcement Learning for Datacenter Congestion Control [50.225885814524304]
渋滞制御アルゴリズムの成功は、レイテンシとネットワーク全体のスループットを劇的に改善する。
今日まで、このような学習ベースのアルゴリズムはこの領域で実用的な可能性を示さなかった。
実世界のデータセンターネットワークの様々な構成に一般化することを目的としたRLに基づくアルゴリズムを考案する。
本稿では,この手法が他のRL手法よりも優れており,トレーニング中に見られなかったシナリオに一般化可能であることを示す。
論文 参考訳(メタデータ) (2021-02-18T13:49:28Z) - Deep Reinforcement Learning for Electric Transmission Voltage Control [0.0]
深層強化学習(DRL)として知られる機械学習のサブセットは、人間によって実行される典型的なタスクの実行において、最近約束されている。
本稿では、送電電圧制御問題にDRLを適用し、電圧制御のためのオープンソースのDRL環境を示し、最大500台のバスで大規模に実験を行う。
論文 参考訳(メタデータ) (2020-06-11T18:35:25Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。