論文の概要: Deep Reinforcement Learning for Community Battery Scheduling under
Uncertainties of Load, PV Generation, and Energy Prices
- arxiv url: http://arxiv.org/abs/2312.03008v1
- Date: Mon, 4 Dec 2023 13:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 17:39:32.867903
- Title: Deep Reinforcement Learning for Community Battery Scheduling under
Uncertainties of Load, PV Generation, and Energy Prices
- Title(参考訳): 負荷・太陽光発電・エネルギー価格の不確実性を考慮した地域電池スケジューリングのための深層強化学習
- Authors: Jiarong Fan, Hao Wang
- Abstract要約: 本稿では,不確実性が存在する場合に,コミュニティバッテリーシステムのスケジューリングを行うための深層強化学習(RL)戦略を提案する。
コミュニティバッテリーは、ローカルPVエネルギーの統合、ピーク負荷の低減、および調停のためのエネルギー価格変動の活用において、多用途の役割を担っている。
- 参考スコア(独自算出の注目度): 5.694872363688119
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In response to the growing uptake of distributed energy resources (DERs),
community batteries have emerged as a promising solution to support renewable
energy integration, reduce peak load, and enhance grid reliability. This paper
presents a deep reinforcement learning (RL) strategy, centered around the soft
actor-critic (SAC) algorithm, to schedule a community battery system in the
presence of uncertainties, such as solar photovoltaic (PV) generation, local
demand, and real-time energy prices. We position the community battery to play
a versatile role, in integrating local PV energy, reducing peak load, and
exploiting energy price fluctuations for arbitrage, thereby minimizing the
system cost. To improve exploration and convergence during RL training, we
utilize the noisy network technique. This paper conducts a comparative study of
different RL algorithms, including proximal policy optimization (PPO) and deep
deterministic policy gradient (DDPG) algorithms, to evaluate their
effectiveness in the community battery scheduling problem. The results
demonstrate the potential of RL in addressing community battery scheduling
challenges and show that the SAC algorithm achieves the best performance
compared to RL and optimization benchmarks.
- Abstract(参考訳): 分散型エネルギー資源(ders)の普及に伴い、再生可能エネルギーの統合、ピーク負荷の削減、グリッドの信頼性向上のための有望なソリューションとしてコミュニティバッテリーが登場した。
本稿では,太陽太陽光発電(pv)生成や地域需要,リアルタイムエネルギー価格といった不確実性が存在する場合に,コミュニティバッテリーシステムをスケジュールするソフトアクタ-クリティック(sac)アルゴリズムを中心に,深層強化学習(rl)戦略を提案する。
我々は,ローカルなpvエネルギーの統合,ピーク負荷の低減,調停のためのエネルギー価格変動を利用したシステムコストの最小化など,コミュニティバッテリーを多用途に位置づける。
rlトレーニング中の探索と収束を改善するために,ノイズネットワーク技術を利用する。
本稿では,地域バッテリースケジューリング問題における有効性を評価するために,近位政策最適化 (ppo) やddpg (deep deterministic policy gradient) アルゴリズムなど,様々なrlアルゴリズムの比較研究を行う。
その結果,コミュニティのバッテリスケジューリング問題に対するrlの可能性を実証し,sacアルゴリズムがrlや最適化ベンチマークと比較して最高の性能を達成できることを示した。
関連論文リスト
- Control Policy Correction Framework for Reinforcement Learning-based Energy Arbitrage Strategies [4.950434218152639]
そこで本稿では,電池の非均衡化機構において,安全なエネルギー仲裁戦略を実現するための新しいRLベースの制御フレームワークを提案する。
提案手法の性能評価には,2023年のベルギーの不均衡価格を用いる。
論文 参考訳(メタデータ) (2024-04-29T16:03:21Z) - Multi-market Energy Optimization with Renewables via Reinforcement
Learning [1.0878040851638]
本稿では,再生可能エネルギーと貯蔵量を組み合わせた発電プラントの運転を最適化するための深層強化学習フレームワークを提案する。
このフレームワークは、ストレージデバイスによる時間結合、再生可能エネルギー生成の不確実性、エネルギー価格、非線形ストレージモデルなどの複雑さを扱う。
複雑なストレージモデルを統合するためにRLを使用し、凸と微分可能なコンポーネントモデルを必要とする最適化ベースのメソッドの制限を克服する。
論文 参考訳(メタデータ) (2023-06-13T21:35:24Z) - Sustainable AIGC Workload Scheduling of Geo-Distributed Data Centers: A
Multi-Agent Reinforcement Learning Approach [48.18355658448509]
生成的人工知能の最近の進歩は、機械学習トレーニングの需要が急増し、エネルギー消費の大幅な増加によるコスト負担と環境問題を引き起こしている。
地理的に分散したクラウドデータセンタ間でのトレーニングジョブのスケジューリングは、安価で低炭素エネルギーのコンピューティング能力の使用を最適化する機会を浮き彫りにする。
本研究では,実生活におけるワークロードパターン,エネルギー価格,炭素強度を組み込んだクラウドシステムと対話することで,マルチエージェント強化学習とアクタクリティカルな手法に基づく最適協調スケジューリング戦略の学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-17T02:12:30Z) - Combating Uncertainties in Wind and Distributed PV Energy Sources Using
Integrated Reinforcement Learning and Time-Series Forecasting [2.774390661064003]
再生可能エネルギーの予測不能は 電力供給会社や電力会社に 課題をもたらします
i)Long-Short Term Memory (LSTM) ソリューションを用いた時系列予測と,(ii)Deep Deterministic Policy Gradient (DDPG)アルゴリズムを用いたマルチエージェント強化学習による分散動的意思決定フレームワークの確立という,スマートグリッドにおける再生可能エネルギーの不確実性に対処する新たなフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-27T19:12:50Z) - Optimal Planning of Hybrid Energy Storage Systems using Curtailed
Renewable Energy through Deep Reinforcement Learning [0.0]
エネルギー貯蔵システム(ESS)を計画するためのポリシーに基づくアルゴリズムを用いた高度な深層強化学習手法を提案する。
定量的性能比較の結果、DRLエージェントはシナリオベース最適化(SO)アルゴリズムよりも優れていた。
その結果、DRLエージェントは人間の専門家が行うように学習し、提案手法の信頼性が示唆された。
論文 参考訳(メタデータ) (2022-12-12T02:24:50Z) - Distributed Energy Management and Demand Response in Smart Grids: A
Multi-Agent Deep Reinforcement Learning Framework [53.97223237572147]
本稿では、自律制御と再生可能エネルギー資源のスマート電力グリッドシステムへの統合のための多エージェント深層強化学習(DRL)フレームワークを提案する。
特に,提案フレームワークは,住宅利用者に対する需要応答 (DR) と分散エネルギー管理 (DEM) を共同で検討している。
論文 参考訳(メタデータ) (2022-11-29T01:18:58Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Optimizing a domestic battery and solar photovoltaic system with deep
reinforcement learning [69.68068088508505]
バッテリーと太陽光発電システムのコストの低下は、ソーラーバッテリーの家庭用システムの増加に繋がった。
本研究では,システム内の電池の充電および放電挙動を最適化するために,深い決定論的ポリシーアルゴリズムを用いる。
論文 参考訳(メタデータ) (2021-09-10T10:59:14Z) - Data-driven battery operation for energy arbitrage using rainbow deep
reinforcement learning [1.8175650854482457]
モデルフリーの深部強化学習アルゴリズムであるRainbow Deep Q-Networksは、小さなマイクログリッドのバッテリーを制御するために使用される。
このグリッドは、キール大学で収集されたデータセットに基づいて、独自の需要と再生可能世代で運用されている。
論文 参考訳(メタデータ) (2021-06-10T21:27:35Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。