論文の概要: Gym-ANM: Reinforcement Learning Environments for Active Network
Management Tasks in Electricity Distribution Systems
- arxiv url: http://arxiv.org/abs/2103.07932v1
- Date: Sun, 14 Mar 2021 14:00:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 04:55:40.655629
- Title: Gym-ANM: Reinforcement Learning Environments for Active Network
Management Tasks in Electricity Distribution Systems
- Title(参考訳): Gym-ANM: 電力配電システムにおけるアクティブネットワーク管理タスクのための強化学習環境
- Authors: Robin Henry and Damien Ernst
- Abstract要約: Gym-ANMは強化学習環境を設計するためのフレームワークです。
現状のRLアルゴリズムはANM6-Easy上ですでに高い性能を達成可能であることを示す。
- 参考スコア(独自算出の注目度): 1.370633147306388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active network management (ANM) of electricity distribution networks include
many complex stochastic sequential optimization problems. These problems need
to be solved for integrating renewable energies and distributed storage into
future electrical grids. In this work, we introduce Gym-ANM, a framework for
designing reinforcement learning (RL) environments that model ANM tasks in
electricity distribution networks. These environments provide new playgrounds
for RL research in the management of electricity networks that do not require
an extensive knowledge of the underlying dynamics of such systems. Along with
this work, we are releasing an implementation of an introductory
toy-environment, ANM6-Easy, designed to emphasize common challenges in ANM. We
also show that state-of-the-art RL algorithms can already achieve good
performance on ANM6-Easy when compared against a model predictive control (MPC)
approach. Finally, we provide guidelines to create new Gym-ANM environments
differing in terms of (a) the distribution network topology and parameters, (b)
the observation space, (c) the modelling of the stochastic processes present in
the system, and (d) a set of hyperparameters influencing the reward signal.
Gym-ANM can be downloaded at https://github.com/robinhenry/gym-anm.
- Abstract(参考訳): 配電ネットワークのアクティブネットワーク管理(ANM)には、多くの複雑な確率的逐次最適化問題が含まれる。
これらの問題は、再生可能エネルギーと分散ストレージを将来の電力網に統合するために解決する必要がある。
本稿では、電力配電ネットワークにおけるANMタスクをモデル化する強化学習(RL)環境を設計するためのフレームワークであるGym-ANMを紹介する。
これらの環境は、そのようなシステムの基盤となるダイナミクスに関する広範な知識を必要としない電力ネットワークの管理におけるrl研究の新しい場を提供する。
この作業に加えて、ANMの共通の課題を強調するために設計された入門玩具環境ANM6-Easyの実装をリリースしています。
また、モデル予測制御(MPC)手法と比較して、最先端のRLアルゴリズムはANM6-Easy上で既に優れた性能が得られることを示す。
最後に, (a) 分布ネットワークトポロジーとパラメータ, (b) 観測空間, (c) システムに存在する確率過程のモデル化, (d) 報酬信号に影響を及ぼす一連のハイパーパラメータについて異なる新しい体育環境を作成するためのガイドラインを提供する。
gym-anmはhttps://github.com/robinhenry/gym-anmからダウンロードできる。
関連論文リスト
- Revisiting DNN Training for Intermittently Powered Energy Harvesting Micro Computers [0.6721767679705013]
本研究では,エネルギー制約環境下でのディープニューラルネットワークに適した新しいトレーニング手法を紹介し,評価する。
本稿では,デバイスアーキテクチャとエネルギー可用性の変動性の両方に適応する動的ドロップアウト手法を提案する。
予備的な結果は、この戦略が5%未満の計算量を持つ最先端技術と比較して6~22%の精度向上をもたらすことを示している。
論文 参考訳(メタデータ) (2024-08-25T01:13:00Z) - Foundation Models for the Electric Power Grid [53.02072064670517]
ファンデーションモデル(FM)がニュースの見出しを支配している。
多様なグリッドデータやトポロジからFMを学習することで、トランスフォーメーション能力が解放されるのではないか、と私たちは主張する。
本稿では,グラフニューラルネットワークに基づく電力グリッドFMの概念,すなわちGridFMについて論じる。
論文 参考訳(メタデータ) (2024-07-12T17:09:47Z) - A Centralized Reinforcement Learning Framework for Adaptive Clustering
with Low Control Overhead in IoT Networks [0.0]
本稿では,Reinforcement Adaptive Learning-based Controller (LEACH-RLC)を用いた低エネルギークラスタリング階層を提案する。
LEACH-RLCは、クラスタヘッド(CH)とノード間割り当ての戦略的選択にMILP(Mixed Linear Programming)を使用している。
Reinforcement Learning (RL)エージェントを統合して、新しいクラスタを生成するための最適なタイミングを学習することで、制御オーバーヘッドを最小限にする。
その結果,LEACH-RLCは従来のLEACHとLEACH-Cよりも優れた性能を示し,ネットワーク寿命の向上,平均エネルギー消費の削減,制御オーバーヘッドの最小化を示した。
論文 参考訳(メタデータ) (2024-01-28T21:08:45Z) - Stabilizing Voltage in Power Distribution Networks via Multi-Agent
Reinforcement Learning with Transformer [128.19212716007794]
本稿では,変圧器を用いたマルチエージェント・アクタ・クリティカル・フレームワーク(T-MAAC)を提案する。
さらに、電圧制御タスクに適した新しい補助タスクトレーニングプロセスを採用し、サンプル効率を向上する。
論文 参考訳(メタデータ) (2022-06-08T07:48:42Z) - Learning Distributed and Fair Policies for Network Load Balancing as
Markov Potentia Game [4.892398873024191]
本稿では、複数のロードバランサ(LB)を配置するデータセンター(DC)におけるネットワーク負荷分散問題について検討する。
この問題の課題は、異種処理アーキテクチャと動的環境から成り立っている。
マルチエージェント負荷分散問題をマルコフポテンシャルゲームとして定式化し、そのポテンシャル関数としてのワークロード分布の公平さを慎重に適切に設計する。
ゲームのナッシュ平衡を近似するために,完全分散MARLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-03T08:29:02Z) - Pervasive Machine Learning for Smart Radio Environments Enabled by
Reconfigurable Intelligent Surfaces [56.35676570414731]
Reconfigurable Intelligent Surfaces(RIS)の新たな技術は、スマート無線環境の実現手段として準備されている。
RISは、無線媒体上の電磁信号の伝搬を動的に制御するための、高度にスケーラブルで低コストで、ハードウェア効率が高く、ほぼエネルギーニュートラルなソリューションを提供する。
このような再構成可能な無線環境におけるRISの密配置に関する大きな課題の1つは、複数の準曲面の効率的な構成である。
論文 参考訳(メタデータ) (2022-05-08T06:21:33Z) - Gym-ANM: Open-source software to leverage reinforcement learning for
power system management in research and education [1.370633147306388]
Gym-ANMは強化学習環境の設計を容易にするPythonパッケージである。
我々は、新しい環境の実装方法と既存の環境と対話するコードを書く方法を説明する。
我々は,Gym-ANMが科学コミュニティに与える影響について論じる。
論文 参考訳(メタデータ) (2021-05-18T22:10:43Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z) - Distributed Deep Reinforcement Learning for Functional Split Control in
Energy Harvesting Virtualized Small Cells [3.8779763612314624]
モバイルネットワークオペレータ(MNO)は、小さなセルの密度の高いインフラストラクチャをデプロイしている。
これにより、モバイルネットワークの消費電力が増加し、環境に影響を及ぼす。
本稿では,エネルギー回収装置と充電式電池を備えた周辺小セルのネットワークについて考察する。
論文 参考訳(メタデータ) (2020-08-07T12:27:01Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。