論文の概要: Centralised rehearsal of decentralised cooperation: Multi-agent
reinforcement learning for the scalable coordination of residential energy
flexibility
- arxiv url: http://arxiv.org/abs/2305.18875v2
- Date: Mon, 5 Jun 2023 11:11:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 00:30:57.175281
- Title: Centralised rehearsal of decentralised cooperation: Multi-agent
reinforcement learning for the scalable coordination of residential energy
flexibility
- Title(参考訳): 分散協調の集中リハーサル:マルチエージェント強化学習による住宅エネルギー柔軟性のスケーラブルな協調
- Authors: Flora Charbonnier, Bei Peng, Thomas Morstyn, Malcolm McCulloch
- Abstract要約: ディープマルチエージェント強化学習は、住宅エネルギーの柔軟性のスケーラブルでプライバシー保護の調整を可能にする。
本手法では,実行前に調整をリハーサルするために,一元的だが要因的批判を用いた深層多エージェントアクター批判手法を採用する。
その結果、調整は、最小限の情報と通信インフラの要件、日々の活動への干渉なし、プライバシー保護など、大規模に達成されている。
- 参考スコア(独自算出の注目度): 6.031345629422314
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper investigates how deep multi-agent reinforcement learning can
enable the scalable and privacy-preserving coordination of residential energy
flexibility. The coordination of distributed resources such as electric
vehicles and heating will be critical to the successful integration of large
shares of renewable energy in our electricity grid and, thus, to help mitigate
climate change. The pre-learning of individual reinforcement learning policies
can enable distributed control with no sharing of personal data required during
execution. However, previous approaches for multi-agent reinforcement
learning-based distributed energy resources coordination impose an ever greater
training computational burden as the size of the system increases. We therefore
adopt a deep multi-agent actor-critic method which uses a \emph{centralised but
factored critic} to rehearse coordination ahead of execution. Results show that
coordination is achieved at scale, with minimal information and communication
infrastructure requirements, no interference with daily activities, and privacy
protection. Significant savings are obtained for energy users, the distribution
network and greenhouse gas emissions. Moreover, training times are nearly 40
times shorter than with a previous state-of-the-art reinforcement learning
approach without the factored critic for 30 homes.
- Abstract(参考訳): 本稿では,多エージェント強化学習が住宅エネルギーの柔軟性のスケーラブルかつプライバシ保護的協調をいかに実現するかを検討する。
電気自動車や暖房といった分散資源の調整は、我々の電力網における再生可能エネルギーの大規模な共有をうまく統合し、気候変動を緩和する上で非常に重要である。
個別の強化学習ポリシーの事前学習は、実行中に個人データの共有が不要な分散制御を可能にする。
しかしながら、マルチエージェント強化学習に基づく分散エネルギー資源調整に対する以前のアプローチは、システムのサイズが大きくなるにつれて、計算負荷を増大させる。
そこで我々は,実行前にコーディネーションをリハーサルするために,emph{centralized but factored critic} を用いた深層マルチエージェントアクター批判手法を採用した。
その結果、調整は、最小限の情報と通信インフラの要件、日々の活動への干渉なし、プライバシー保護など、大規模に達成されている。
エネルギー使用者、配電網、温室効果ガス排出に対する重要な貯蓄が得られている。
さらに、30世帯の批判を伴わない最先端の強化学習アプローチでは、トレーニング時間は40倍近く短縮されている。
関連論文リスト
- Centralized vs. Decentralized Multi-Agent Reinforcement Learning for Enhanced Control of Electric Vehicle Charging Networks [1.9188272016043582]
本稿では,MARL(Multi-Agent Reinforcement Learning)フレームワークを用いた分散・協調型充電戦略の新たなアプローチを提案する。
本手法は, 住宅街におけるEV群を対象としたDDPGアルゴリズムに基づいて構築した。
以上の結果から, CTDE-DDPGフレームワークは, 政策のばらつきや訓練の複雑さが高いにもかかわらず, 総変動率を約36パーセント, 充電コストを平均9.1程度削減することにより, 充電効率を著しく向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-18T21:50:03Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - Imitation Learning based Alternative Multi-Agent Proximal Policy
Optimization for Well-Formed Swarm-Oriented Pursuit Avoidance [15.498559530889839]
本稿では,分散学習に基づく代替的マルチエージェント・プロキシ・ポリシー最適化(IA-MAPPO)アルゴリズムを提案する。
擬似学習を利用して生成コントローラを分散化し,通信オーバーヘッドを低減し,スケーラビリティを向上させる。
シミュレーションの結果,IA-MAPPOの有効性が検証され,広範囲なアブレーション実験により,通信オーバーヘッドが著しく減少する集中型解に匹敵する性能が示された。
論文 参考訳(メタデータ) (2023-11-06T06:58:16Z) - Real-World Implementation of Reinforcement Learning Based Energy
Coordination for a Cluster of Households [3.901860248668672]
本研究では, 住宅8棟の電力消費調整における強化学習(RL)の有効性について検討した。
以上の結果から,データ駆動方式で学習したRLに基づくランキングの有効性が示された。
論文 参考訳(メタデータ) (2023-10-29T21:10:38Z) - Sustainable AIGC Workload Scheduling of Geo-Distributed Data Centers: A
Multi-Agent Reinforcement Learning Approach [48.18355658448509]
生成的人工知能の最近の進歩は、機械学習トレーニングの需要が急増し、エネルギー消費の大幅な増加によるコスト負担と環境問題を引き起こしている。
地理的に分散したクラウドデータセンタ間でのトレーニングジョブのスケジューリングは、安価で低炭素エネルギーのコンピューティング能力の使用を最適化する機会を浮き彫りにする。
本研究では,実生活におけるワークロードパターン,エネルギー価格,炭素強度を組み込んだクラウドシステムと対話することで,マルチエージェント強化学習とアクタクリティカルな手法に基づく最適協調スケジューリング戦略の学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-17T02:12:30Z) - Distributed Energy Management and Demand Response in Smart Grids: A
Multi-Agent Deep Reinforcement Learning Framework [53.97223237572147]
本稿では、自律制御と再生可能エネルギー資源のスマート電力グリッドシステムへの統合のための多エージェント深層強化学習(DRL)フレームワークを提案する。
特に,提案フレームワークは,住宅利用者に対する需要応答 (DR) と分散エネルギー管理 (DEM) を共同で検討している。
論文 参考訳(メタデータ) (2022-11-29T01:18:58Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - Demand-Side Scheduling Based on Multi-Agent Deep Actor-Critic Learning
for Smart Grids [56.35173057183362]
家庭用家電をネットでスケジュールできるスマートメーターが各家庭に備わっている需要側エネルギー管理の問題点を考察する。
目標は、リアルタイムの料金体系の下で全体のコストを最小化することです。
マルコフゲームとしてスマートグリッド環境の定式化を提案する。
論文 参考訳(メタデータ) (2020-05-05T07:32:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。