論文の概要: CityLearn: Standardizing Research in Multi-Agent Reinforcement Learning
for Demand Response and Urban Energy Management
- arxiv url: http://arxiv.org/abs/2012.10504v1
- Date: Fri, 18 Dec 2020 20:41:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 19:50:10.560291
- Title: CityLearn: Standardizing Research in Multi-Agent Reinforcement Learning
for Demand Response and Urban Energy Management
- Title(参考訳): CityLearn:需要対応と都市エネルギー管理のためのマルチエージェント強化学習の標準化研究
- Authors: Jose R Vazquez-Canteli, Sourav Dey, Gregor Henze, Zoltan Nagy
- Abstract要約: 米国では、建物は総電力需要の約70%を表し、需要応答は電力のピークを約20%削減する可能性があります。
強化学習アルゴリズムはここ数年で関心が高まっている。
CityLearnはOpenAI Gym環境であり、研究者は要求応答のためにRLの実装を実装し、共有し、複製し、比較することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rapid urbanization, increasing integration of distributed renewable energy
resources, energy storage, and electric vehicles introduce new challenges for
the power grid. In the US, buildings represent about 70% of the total
electricity demand and demand response has the potential for reducing peaks of
electricity by about 20%. Unlocking this potential requires control systems
that operate on distributed systems, ideally data-driven and model-free. For
this, reinforcement learning (RL) algorithms have gained increased interest in
the past years. However, research in RL for demand response has been lacking
the level of standardization that propelled the enormous progress in RL
research in the computer science community. To remedy this, we created
CityLearn, an OpenAI Gym Environment which allows researchers to implement,
share, replicate, and compare their implementations of RL for demand response.
Here, we discuss this environment and The CityLearn Challenge, a RL competition
we organized to propel further progress in this field.
- Abstract(参考訳): 急速な都市化、分散型再生可能エネルギー資源の統合、エネルギー貯蔵、電気自動車は電力網に新たな課題をもたらす。
米国では、建物が総電力需要の約70%を占め、需要応答は電力のピークを約20%削減する可能性がある。
このポテンシャルをアンロックするには、理想的にはデータ駆動でモデルフリーな分散システムで動作する制御システムが必要です。
このため, 近年, 強化学習(RL)アルゴリズムへの関心が高まっている。
しかし、需要対応のためのRLの研究は、コンピュータ科学コミュニティにおけるRL研究の大幅な進歩を促す標準化のレベルを欠いている。
そこで我々はCityLearnを開発した。CityLearnはOpenAI Gym環境で、研究者が要求応答のためにRLの実装を実装し、共有し、複製し、比較することができる。
ここでは,この分野のさらなる進歩を推進すべく,我々が主催したRLコンペティションであるThe CityLearn Challengeについて論じる。
関連論文リスト
- Learning a local trading strategy: deep reinforcement learning for grid-scale renewable energy integration [0.0]
本稿では,太陽エネルギーを併用したグリッドスケール電池の運用における強化学習の活用について検討する。
その結果、RLは近似的最適(非因果的)演算の61%(最大96%)を達成できた。
論文 参考訳(メタデータ) (2024-11-23T02:55:38Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - MERLIN: Multi-agent offline and transfer learning for occupant-centric
energy flexible operation of grid-interactive communities using smart meter
data and CityLearn [0.0]
ビルの脱炭は, 送電網の信頼性に新たな課題をもたらす。
我々は,MERLINフレームワークを提案し,CityLearnの現実的なグリッド・インタラクティブな住宅コミュニティのデジタルツインを利用する。
電池の独立型RL制御器は、個々の建物に対するポリシーを調整することによって、基準よりも建物や地区レベルが向上することを示す。
論文 参考訳(メタデータ) (2022-12-31T21:37:14Z) - PowRL: A Reinforcement Learning Framework for Robust Management of Power
Networks [2.9822184411723645]
本稿では,予期せぬネットワークイベントの影響を軽減するための強化学習フレームワークPowRLを提案する。
PowRLはL2RPN(Learning to Run a Power Network)がホストするさまざまな競合データセットでベンチマークされる
論文 参考訳(メタデータ) (2022-12-05T16:22:12Z) - Distributed Energy Management and Demand Response in Smart Grids: A
Multi-Agent Deep Reinforcement Learning Framework [53.97223237572147]
本稿では、自律制御と再生可能エネルギー資源のスマート電力グリッドシステムへの統合のための多エージェント深層強化学習(DRL)フレームワークを提案する。
特に,提案フレームワークは,住宅利用者に対する需要応答 (DR) と分散エネルギー管理 (DEM) を共同で検討している。
論文 参考訳(メタデータ) (2022-11-29T01:18:58Z) - Low Emission Building Control with Zero-Shot Reinforcement Learning [70.70479436076238]
強化学習(RL)による制御は、建築エネルギー効率を著しく向上させることが示されている。
我々は、ゼロショットビルディング制御と呼ばれるパラダイムを優先せずに、排出削減ポリシーを得られることを示す。
論文 参考訳(メタデータ) (2022-08-12T17:13:25Z) - Reinforcement learning for Energies of the future and carbon neutrality:
a Challenge Design [0.0]
この挑戦は、2019年に"Learning to run a power network" (L2RPN)という名前で始まったシリーズに属する。
我々は2050年までに炭素中立に達するためにRTEによって提案された新しいより現実的なシナリオを紹介する。
我々は、最先端の強化学習アルゴリズムを用いて、将来の参加者を刺激するベースラインを提供する。
論文 参考訳(メタデータ) (2022-07-21T06:56:46Z) - Machine learning applications for electricity market agent-based models:
A systematic literature review [68.8204255655161]
エージェントベースのシミュレーションは、電気市場のダイナミクスをよりよく理解するために使用される。
エージェントベースのモデルは、機械学習と人工知能を統合する機会を提供する。
我々は、エージェントベースの電気市場モデルに適用された機械学習に焦点を当てた2016年から2021年の間に発行された55の論文をレビューする。
論文 参考訳(メタデータ) (2022-06-05T14:52:26Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。