論文の概要: Reinforcement Learning Based Cooperative P2P Energy Trading between DC
Nanogrid Clusters with Wind and PV Energy Resources
- arxiv url: http://arxiv.org/abs/2209.07744v1
- Date: Fri, 16 Sep 2022 06:59:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 13:53:44.896889
- Title: Reinforcement Learning Based Cooperative P2P Energy Trading between DC
Nanogrid Clusters with Wind and PV Energy Resources
- Title(参考訳): 風とPVエネルギー資源を有する直流ナノグリッドクラスタ間の強化学習に基づく協調P2Pエネルギー取引
- Authors: Sangkeum Lee, Hojun Jin, Sarvar Hussain Nengroo, Taewook Heo, Yoonmee
Doh, Chungho Lee, Dongsoo Har
- Abstract要約: 本稿ではP2P(P2P)電力取引のための強化学習手法を提案する。
RLでは、グラフ畳み込みネットワーク(GCN)と双方向長短期メモリ(Bi-LSTM)が併用される。
協調型P2P電力取引システムは、関税に基づく電力コストとシステム限界価格(SMP)を利用した利益を最大化する。
P2P電力取引によるナノグリッドクラスタの電力管理を, 配電試験給電装置上でリアルタイムにシミュレートする。
- 参考スコア(独自算出の注目度): 0.4987480084635553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to replace fossil fuels with the use of renewable energy resources,
unbalanced resource production of intermittent wind and photovoltaic (PV) power
is a critical issue for peer-to-peer (P2P) power trading. To resolve this
problem, a reinforcement learning (RL) technique is introduced in this paper.
For RL, graph convolutional network (GCN) and bi-directional long short-term
memory (Bi-LSTM) network are jointly applied to P2P power trading between
nanogrid clusters based on cooperative game theory. The flexible and reliable
DC nanogrid is suitable to integrate renewable energy for distribution system.
Each local nanogrid cluster takes the position of prosumer, focusing on power
production and consumption simultaneously. For the power management of nanogrid
clusters, multi-objective optimization is applied to each local nanogrid
cluster with the Internet of Things (IoT) technology. Charging/discharging of
electric vehicle (EV) is performed considering the intermittent characteristics
of wind and PV power production. RL algorithms, such as deep Q-learning network
(DQN), deep recurrent Q-learning network (DRQN), Bi-DRQN, proximal policy
optimization (PPO), GCN-DQN, GCN-DRQN, GCN-Bi-DRQN, and GCN-PPO, are used for
simulations. Consequently, the cooperative P2P power trading system maximizes
the profit utilizing the time of use (ToU) tariff-based electricity cost and
system marginal price (SMP), and minimizes the amount of grid power
consumption. Power management of nanogrid clusters with P2P power trading is
simulated on the distribution test feeder in real-time and proposed GCN-PPO
technique reduces the electricity cost of nanogrid clusters by 36.7%.
- Abstract(参考訳): 化石燃料を再生可能エネルギー資源に置き換えるために、間欠的風力と太陽光発電(PV)の未均衡な資源生産は、ピアツーピア(P2P)電力取引にとって重要な問題である。
この問題を解決するために,本論文では強化学習(RL)技術を紹介した。
RLでは、協調ゲーム理論に基づくナノグリッドクラスタ間のP2P電力取引に、グラフ畳み込みネットワーク(GCN)と双方向長短期メモリ(Bi-LSTM)ネットワークを併用する。
柔軟で信頼性の高いDCナノグリッドは、流通システムに再生可能エネルギーを統合するのに適している。
各ローカルのナノグリッドクラスタは、電力生産と消費を同時に集中して、プロシューマーの立場を取る。
ナノグリッドクラスタの電力管理には,IoT(Internet of Things)技術を用いた各ローカルナノグリッドクラスタに多目的最適化を適用する。
風速とPV発電の断続特性を考慮した電気自動車(EV)の充電・放電を行う。
シミュレーションには、深部Qラーニングネットワーク(DQN)、深部Qラーニングネットワーク(DRQN)、Bi-DRQN、PPO、GCN-DQN、GCN-DRQN、GCN-Bi-DRQN、GCN-PPOなどのRLアルゴリズムが使用される。
したがって、協調p2p電力取引システムは、使用時間(tou)に基づく電力コストとシステム限界価格(smp)を利用して利益を最大化し、グリッド電力消費量を最小化する。
P2Pパワートレーディングによるナノグリッドクラスタの電力管理をリアルタイムに分散テストフィーダ上でシミュレーションし,提案手法によりナノグリッドクラスタの電力コストを36.7%削減する。
関連論文リスト
- Peer-to-Peer Energy Trading of Solar and Energy Storage: A Networked Multiagent Reinforcement Learning Approach [5.671124014371425]
我々は,ソーラーPVとエネルギー貯蔵資源の消費者の入札と管理を自動化するために,マルチエージェント強化学習(MARL)フレームワークを提案する。
我々は、MARLフレームワークが物理的ネットワーク制約を統合して電圧制御を実現し、P2Pエネルギートレーディングの物理的実現性を確保する方法を示す。
論文 参考訳(メタデータ) (2024-01-25T05:05:55Z) - Deep Reinforcement Learning for Community Battery Scheduling under
Uncertainties of Load, PV Generation, and Energy Prices [5.694872363688119]
本稿では,不確実性が存在する場合に,コミュニティバッテリーシステムのスケジューリングを行うための深層強化学習(RL)戦略を提案する。
コミュニティバッテリーは、ローカルPVエネルギーの統合、ピーク負荷の低減、および調停のためのエネルギー価格変動の活用において、多用途の役割を担っている。
論文 参考訳(メタデータ) (2023-12-04T13:45:17Z) - Distributed Energy Management and Demand Response in Smart Grids: A
Multi-Agent Deep Reinforcement Learning Framework [53.97223237572147]
本稿では、自律制御と再生可能エネルギー資源のスマート電力グリッドシステムへの統合のための多エージェント深層強化学習(DRL)フレームワークを提案する。
特に,提案フレームワークは,住宅利用者に対する需要応答 (DR) と分散エネルギー管理 (DEM) を共同で検討している。
論文 参考訳(メタデータ) (2022-11-29T01:18:58Z) - Power Grid Congestion Management via Topology Optimization with
AlphaZero [0.27998963147546135]
本稿では,AlphaZeroをベースとしたグリッドトポロジ最適化手法を提案する。
WCCI 2022ではL2RPN(Learning to Run a Power Network)コンペで1位にランクインした。
論文 参考訳(メタデータ) (2022-11-10T14:39:28Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Learning Autonomy in Management of Wireless Random Networks [102.02142856863563]
本稿では,任意の数のランダム接続ノードを持つ無線ネットワークにおいて,分散最適化タスクに取り組む機械学習戦略を提案する。
我々は,ネットワークトポロジとは無関係に,前方および後方に計算を行う分散メッセージパスニューラルネットワーク(DMPNN)と呼ばれる,柔軟な深層ニューラルネットワーク形式を開発した。
論文 参考訳(メタデータ) (2021-06-15T09:03:28Z) - Multi-Objective Reinforcement Learning based Multi-Microgrid System
Optimisation Problem [4.338938227238059]
エネルギー貯蔵システムと分散型再生可能エネルギー源を備えたマイクログリッドは、従来の電源からの消費を減らし、CO$の排出を抑える上で重要な役割を担っている。
マルチマイクログリッドを分散電力グリッドに接続することで、システムのセキュリティとプライバシを高めるため、より堅牢で信頼性の高い操作が可能になる。
提案モデルは,スマートグリッド層,独立系演算子層(ISO)層,電力グリッド層という3つの層から構成される。
論文 参考訳(メタデータ) (2021-03-10T23:01:22Z) - A Multi-Agent Deep Reinforcement Learning Approach for a Distributed
Energy Marketplace in Smart Grids [58.666456917115056]
本稿では,マイクログリッドを支配下に置くために,強化学習に基づくエネルギー市場を提案する。
提案する市場モデルにより,リアルタイムかつ需要に依存した動的価格設定環境が実現され,グリッドコストが低減され,消費者の経済的利益が向上する。
論文 参考訳(メタデータ) (2020-09-23T02:17:51Z) - Deep Learning for Radio Resource Allocation with Diverse
Quality-of-Service Requirements in 5G [53.23237216769839]
本研究では,基地局の最適資源配分ポリシーを近似するディープラーニングフレームワークを開発する。
完全接続ニューラルネットワーク(NN)は,近似誤差とサブキャリア数の量子化誤差により,要求を完全に保証できないことがわかった。
無線チャネルの分布と無線ネットワークにおけるサービスのタイプが定常的でないことを考慮し,非定常的無線ネットワークにおけるNNの更新にディープトランスファー学習を適用した。
論文 参考訳(メタデータ) (2020-03-29T04:48:22Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。