論文の概要: Renewable energy integration and microgrid energy trading using
multi-agent deep reinforcement learning
- arxiv url: http://arxiv.org/abs/2111.10898v1
- Date: Sun, 21 Nov 2021 21:11:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 04:45:57.227972
- Title: Renewable energy integration and microgrid energy trading using
multi-agent deep reinforcement learning
- Title(参考訳): 多エージェント深部強化学習を用いた再生可能エネルギー統合とマイクログリッドエネルギー取引
- Authors: Daniel J. B. Harrold, Jun Cao, Zhong Fan
- Abstract要約: マルチエージェント強化学習はハイブリッドエネルギー貯蔵システムを制御するために使用される。
エージェントは、短期、中長期、長期の記憶に適した3種類のエネルギー貯蔵システムを制御することを学ぶ。
電力網に売るのではなく、他のマイクログリッドと取引できることは、電力網の貯蓄を大幅に増加させることが判明した。
- 参考スコア(独自算出の注目度): 2.0427610089943387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, multi-agent reinforcement learning is used to control a hybrid
energy storage system working collaboratively to reduce the energy costs of a
microgrid through maximising the value of renewable energy and trading. The
agents must learn to control three different types of energy storage system
suited for short, medium, and long-term storage under fluctuating demand,
dynamic wholesale energy prices, and unpredictable renewable energy generation.
Two case studies are considered: the first looking at how the energy storage
systems can better integrate renewable energy generation under dynamic pricing,
and the second with how those same agents can be used alongside an aggregator
agent to sell energy to self-interested external microgrids looking to reduce
their own energy bills. This work found that the centralised learning with
decentralised execution of the multi-agent deep deterministic policy gradient
and its state-of-the-art variants allowed the multi-agent methods to perform
significantly better than the control from a single global agent. It was also
found that using separate reward functions in the multi-agent approach
performed much better than using a single control agent. Being able to trade
with the other microgrids, rather than just selling back to the utility grid,
also was found to greatly increase the grid's savings.
- Abstract(参考訳): 本稿では, 再生可能エネルギーとトレーディングの価値を最大化することにより, マイクログリッドのエネルギーコスト削減に協力して働くハイブリッドエネルギー貯蔵システムの制御にマルチエージェント強化学習を用いる。
エージェントは、変動する需要、動的パーセールエネルギー価格、予測不可能な再生可能エネルギー発生の下で、短・中・長期の貯蔵に適した3種類のエネルギー貯蔵システムを制御することを学ばなければならない。
2つのケーススタディは、エネルギー貯蔵システムが動的価格の下で再生可能エネルギーをいかにうまく統合できるか、そして2つ目のケーススタディは、同じエージェントをアグリゲーターエージェントと一緒に利用して、エネルギーを自給自足の外部マイクログリッドに販売し、エネルギー料金を減らそうとしている。
この研究は、多エージェントの深層決定主義的政策勾配の分散実行による集中学習と、その最先端の変種により、単一のグローバルエージェントの制御よりもはるかに優れた性能を発揮することを示した。
また, マルチエージェントアプローチでは, 個別の報酬関数を用いることで, シングルコントロールエージェントよりも優れた効果が得られた。
他のマイクログリッドとの取引が可能で、単にユーティリティグリッドに売るのではなく、グリッドの節約を大幅に増やすことが判明した。
関連論文リスト
- Peer-to-Peer Energy Trading of Solar and Energy Storage: A Networked Multiagent Reinforcement Learning Approach [5.671124014371425]
我々は,ソーラーPVとエネルギー貯蔵資源の消費者の入札と管理を自動化するために,マルチエージェント強化学習(MARL)フレームワークを提案する。
我々は、MARLフレームワークが物理的ネットワーク制約を統合して電圧制御を実現し、P2Pエネルギートレーディングの物理的実現性を確保する方法を示す。
論文 参考訳(メタデータ) (2024-01-25T05:05:55Z) - MAHTM: A Multi-Agent Framework for Hierarchical Transactive Microgrids [0.0]
本稿では,マイクログリッド内のエネルギー取引を管理するためのマルチエージェント強化学習フレームワークを提案する。
炭素フットプリントを最小化し、すべての利害関係者に利益を与えることで、利用可能なリソースの使用を最適化することを目指している。
論文 参考訳(メタデータ) (2023-03-15T08:42:48Z) - Combating Uncertainties in Wind and Distributed PV Energy Sources Using
Integrated Reinforcement Learning and Time-Series Forecasting [2.774390661064003]
再生可能エネルギーの予測不能は 電力供給会社や電力会社に 課題をもたらします
i)Long-Short Term Memory (LSTM) ソリューションを用いた時系列予測と,(ii)Deep Deterministic Policy Gradient (DDPG)アルゴリズムを用いたマルチエージェント強化学習による分散動的意思決定フレームワークの確立という,スマートグリッドにおける再生可能エネルギーの不確実性に対処する新たなフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-27T19:12:50Z) - Distributed Energy Management and Demand Response in Smart Grids: A
Multi-Agent Deep Reinforcement Learning Framework [53.97223237572147]
本稿では、自律制御と再生可能エネルギー資源のスマート電力グリッドシステムへの統合のための多エージェント深層強化学習(DRL)フレームワークを提案する。
特に,提案フレームワークは,住宅利用者に対する需要応答 (DR) と分散エネルギー管理 (DEM) を共同で検討している。
論文 参考訳(メタデータ) (2022-11-29T01:18:58Z) - Energy Pricing in P2P Energy Systems Using Reinforcement Learning [36.244907785240876]
消費者側の再生可能エネルギーの増加は、エネルギーグリッドの新たなダイナミクスに取って代わる。
このようなシナリオでは、分散再生可能エネルギー発生器の性質とエネルギー消費は、エネルギーの購入と販売の公正価格を定義する複雑さを増大させる。
我々は,マイクログリッドのすべてのコンポーネントの利益を最大化する価格を設定するためにエージェントを訓練することにより,この問題を解決するための強化学習フレームワークを導入する。
論文 参考訳(メタデータ) (2022-10-24T19:21:10Z) - A Multi-Agent Deep Reinforcement Learning Approach for a Distributed
Energy Marketplace in Smart Grids [58.666456917115056]
本稿では,マイクログリッドを支配下に置くために,強化学習に基づくエネルギー市場を提案する。
提案する市場モデルにより,リアルタイムかつ需要に依存した動的価格設定環境が実現され,グリッドコストが低減され,消費者の経済的利益が向上する。
論文 参考訳(メタデータ) (2020-09-23T02:17:51Z) - Demand Responsive Dynamic Pricing Framework for Prosumer Dominated
Microgrids using Multiagent Reinforcement Learning [59.28219519916883]
本稿では,実時間価格(RTP)DR技術を実装したマルチエージェント強化学習に基づく意思決定環境を提案する。
提案手法は,従来のDR法に共通するいくつかの欠点に対処し,グリッド演算子とプロシューマーに大きな経済的利益をもたらす。
論文 参考訳(メタデータ) (2020-09-23T01:44:57Z) - A Hierarchical Approach to Multi-Energy Demand Response: From
Electricity to Multi-Energy Applications [1.5084441395740482]
本稿では,多くの住宅,商業,産業の消費者の集合体のエネルギー消費を制御する機会を探る。
このアンサンブル制御は、マルチエネルギーインフラシステムのモデリングツールのセットへの現代的な需要応答となる。
論文 参考訳(メタデータ) (2020-05-05T17:17:51Z) - Demand-Side Scheduling Based on Multi-Agent Deep Actor-Critic Learning
for Smart Grids [56.35173057183362]
家庭用家電をネットでスケジュールできるスマートメーターが各家庭に備わっている需要側エネルギー管理の問題点を考察する。
目標は、リアルタイムの料金体系の下で全体のコストを最小化することです。
マルコフゲームとしてスマートグリッド環境の定式化を提案する。
論文 参考訳(メタデータ) (2020-05-05T07:32:40Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。