論文の概要: Correlated Deep Q-learning based Microgrid Energy Management
- arxiv url: http://arxiv.org/abs/2103.04152v1
- Date: Sat, 6 Mar 2021 16:43:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:08:05.450877
- Title: Correlated Deep Q-learning based Microgrid Energy Management
- Title(参考訳): 深層Q-ラーニングに基づくマイクログリッドエネルギー管理
- Authors: Hao Zhou, and Melike Erol-Kantarci
- Abstract要約: 本稿ではMGエネルギー管理のための相関型深層Q-learning(CDQN)手法を提案する。
それぞれの電気実体は、ニューラルネットワークを持ち、自身のQ値を予測するエージェントとしてモデル化され、その後、相関したQ平衡を用いてエージェントを協調する。
シミュレーションの結果、ESSエージェントと太陽光発電(PV)エージェントの利益は、それぞれ40.9%と9.62%である。
- 参考スコア(独自算出の注目度): 12.013067383415747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Microgrid (MG) energy management is an important part of MG operation.
Various entities are generally involved in the energy management of an MG,
e.g., energy storage system (ESS), renewable energy resources (RER) and the
load of users, and it is crucial to coordinate these entities. Considering the
significant potential of machine learning techniques, this paper proposes a
correlated deep Q-learning (CDQN) based technique for the MG energy management.
Each electrical entity is modeled as an agent which has a neural network to
predict its own Q-values, after which the correlated Q-equilibrium is used to
coordinate the operation among agents. In this paper, the Long Short Term
Memory networks (LSTM) based deep Q-learning algorithm is introduced and the
correlated equilibrium is proposed to coordinate agents. The simulation result
shows 40.9% and 9.62% higher profit for ESS agent and photovoltaic (PV) agent,
respectively.
- Abstract(参考訳): マイクログリッド(MG)エネルギー管理はMG操作の重要な部分である。
エネルギー貯蔵システム(ESS)、再生可能エネルギー資源(RER)、利用者の負荷など、様々なエンティティがMGのエネルギー管理に関与しており、これらのエンティティを調整することが不可欠である。
機械学習技術の有意な可能性を考慮して,mgエネルギー管理のための相関型深層q-learning (cdqn) 手法を提案する。
各電気エンティティは、自身のQ値を予測するニューラルネットワークを有するエージェントとしてモデル化され、その後、相関したQ平衡を使用してエージェント間の動作を調整します。
本稿では,Long Short Term Memory Network (LSTM) に基づく深層Q-learningアルゴリズムを導入し,エージェントの協調のための相関平衡を提案する。
シミュレーションの結果、ESSエージェントと太陽光発電(PV)エージェントの利益は、それぞれ40.9%と9.62%である。
関連論文リスト
- Pointer Networks with Q-Learning for Combinatorial Optimization [55.2480439325792]
我々は、モデルフリーQ値ポリシー近似をPointer Networks(Ptr-Nets)と統合したハイブリッドニューラルネットワークであるPointer Q-Network(PQN)を紹介する。
実験により,本手法の有効性を実証し,不安定な環境でモデルをテストする。
論文 参考訳(メタデータ) (2023-11-05T12:03:58Z) - Smart Home Energy Management: VAE-GAN synthetic dataset generator and
Q-learning [15.995891934245334]
本稿では,スマートホームにおけるエネルギー消費に関する時系列データを生成するための,変分自動エンコーダ生成対向ネットワーク(VAE-GAN)手法を提案する。
実世界のスマートホームデータを用いて,Qラーニングに基づくHEMSのオンラインパフォーマンスを検証した。
論文 参考訳(メタデータ) (2023-05-14T22:22:16Z) - Federated Multi-Agent Deep Reinforcement Learning Approach via
Physics-Informed Reward for Multi-Microgrid Energy Management [34.18923657108073]
本稿では,物理インフォームド報酬を用いたF-MADRLアルゴリズムを提案する。
このアルゴリズムでは、F-MADRLアルゴリズムをトレーニングするためにフェデレート学習機構を導入し、データのプライバシとセキュリティを確保する。
オークリッジ国立研究所の分散エネルギー制御通信実験室(ORNL-MG)で実験を行った。
論文 参考訳(メタデータ) (2022-12-29T08:35:11Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - Multi-agent Bayesian Deep Reinforcement Learning for Microgrid Energy
Management under Communication Failures [10.099371194251052]
通信障害時のMGエネルギー管理のためのマルチエージェントベイズ深部強化学習法(BA-DRL)を提案する。
BA-DRL は Nash Deep Q-learning (Nash-DQN) よりも 4.1% と 10.3% 高い報酬率を持つ。
論文 参考訳(メタデータ) (2021-11-22T03:08:10Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Information Freshness-Aware Task Offloading in Air-Ground Integrated
Edge Computing Systems [49.80033982995667]
本稿では,空域統合マルチアクセスエッジコンピューティングシステムにおける情報更新性を考慮したタスクオフロードの問題について検討する。
サードパーティのリアルタイムアプリケーションサービスプロバイダは、InPからの限られた通信と計算リソースで、加入したモバイルユーザ(MU)にコンピューティングサービスを提供する。
本稿では,各MUに2つの個別の深度Q-networksを適用し,Q-factorと後Q-factorを近似する新しい深度強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-07-15T21:32:43Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。