論文の概要: Does Explicit Prediction Matter in Energy Management Based on Deep
Reinforcement Learning?
- arxiv url: http://arxiv.org/abs/2108.05099v1
- Date: Wed, 11 Aug 2021 08:52:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 13:14:53.179039
- Title: Does Explicit Prediction Matter in Energy Management Based on Deep
Reinforcement Learning?
- Title(参考訳): 深層強化学習に基づくエネルギー管理における明示的予測は重要か?
- Authors: Zhaoming Qin, Huaying Zhang, Yuzhou Zhao, Hong Xie, and Junwei Cao
- Abstract要約: 本稿では,DRLをベースとした標準エネルギー管理手法を提案する。
シミュレーションの結果,予測のないエネルギー管理方式の方が予測を伴う方式よりも優れていることが示された。
本研究は,エネルギー管理分野におけるDRL法の誤用を是正することを目的としている。
- 参考スコア(独自算出の注目度): 2.82357668338266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a model-free optimization and decision-making method, deep reinforcement
learning (DRL) has been widely applied to the filed of energy management in
energy Internet. While, some DRL-based energy management schemes also
incorporate the prediction module used by the traditional model-based methods,
which seems to be unnecessary and even adverse. In this work, we present the
standard DRL-based energy management scheme with and without prediction. Then,
these two schemes are compared in the unified energy management framework. The
simulation results demonstrate that the energy management scheme without
prediction is superior over the scheme with prediction. This work intends to
rectify the misuse of DRL methods in the field of energy management.
- Abstract(参考訳): モデルフリーの最適化および意思決定手法として、エネルギーインターネットにおけるエネルギー管理の申請に対して、深層強化学習(DRL)が広く適用されている。
しかし、drlベースのエネルギー管理スキームの中には、従来のモデルベースの手法で使われる予測モジュールも組み込まれているものもある。
本研究では,DRLに基づく標準エネルギー管理方式について,予測と無関係に述べる。
次に、これら2つのスキームを統一エネルギー管理フレームワークで比較する。
シミュレーションの結果,予測のないエネルギー管理方式は予測方式よりも優れていることがわかった。
本研究は,エネルギー管理分野におけるDRL法の誤用を是正することを目的とする。
関連論文リスト
- Data-driven modeling and supervisory control system optimization for plug-in hybrid electric vehicles [16.348774515562678]
プラグインハイブリッド電気自動車(PHEV)のための学習型インテリジェントエネルギー管理システムは,効率的なエネルギー利用の実現に不可欠である。
彼らのアプリケーションは現実世界でシステム信頼性の課題に直面しており、元の機器メーカー(OEM)が広く受け入れられることを防ぐ。
本稿では,水平延長型強化学習(RL)に基づくエネルギー管理と等価消費最小化戦略(ECMS)を組み合わせた実車用アプリケーション指向制御フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-13T13:04:42Z) - Theoretically Guaranteed Policy Improvement Distilled from Model-Based
Planning [64.10794426777493]
モデルベース強化学習(RL)は、様々な連続制御タスクにおいて顕著な成功を収めた。
近年のプラクティスでは、最適化されたアクションシーケンスをトレーニングフェーズ中にRLポリシーに蒸留する傾向にある。
我々は,モデルに基づく計画から政策への蒸留アプローチを開発する。
論文 参考訳(メタデータ) (2023-07-24T16:52:31Z) - Empirical Analysis of AI-based Energy Management in Electric Vehicles: A
Case Study on Reinforcement Learning [9.65075615023066]
強化学習ベース(RLベース)エネルギー管理戦略(EMS)は、複数の電力源を持つ電気自動車のエネルギー管理において有望な解決策であると考えられる。
本稿では, プラグインハイブリッド電気自動車 (PHEV) と燃料電池電気自動車 (FCEV) におけるRL系EMSの実証分析について述べる。
論文 参考訳(メタデータ) (2022-12-18T20:12:20Z) - Optimal Planning of Hybrid Energy Storage Systems using Curtailed
Renewable Energy through Deep Reinforcement Learning [0.0]
エネルギー貯蔵システム(ESS)を計画するためのポリシーに基づくアルゴリズムを用いた高度な深層強化学習手法を提案する。
定量的性能比較の結果、DRLエージェントはシナリオベース最適化(SO)アルゴリズムよりも優れていた。
その結果、DRLエージェントは人間の専門家が行うように学習し、提案手法の信頼性が示唆された。
論文 参考訳(メタデータ) (2022-12-12T02:24:50Z) - Distributed Energy Management and Demand Response in Smart Grids: A
Multi-Agent Deep Reinforcement Learning Framework [53.97223237572147]
本稿では、自律制御と再生可能エネルギー資源のスマート電力グリッドシステムへの統合のための多エージェント深層強化学習(DRL)フレームワークを提案する。
特に,提案フレームワークは,住宅利用者に対する需要応答 (DR) と分散エネルギー管理 (DEM) を共同で検討している。
論文 参考訳(メタデータ) (2022-11-29T01:18:58Z) - Progress and summary of reinforcement learning on energy management of
MPS-EV [4.0629930354376755]
エネルギー管理戦略(エネルギ・マネジメント・ストラテジー、EMS)は、MPS-EVが効率、燃費、走行距離を最大化するための重要な技術である。
本稿では,RL ベース EMS に関する現在の研究の詳細な分析を行い,RL ベース EMS の設計要素を要約する。
論文 参考訳(メタデータ) (2022-11-08T04:49:32Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - MOReL : Model-Based Offline Reinforcement Learning [49.30091375141527]
オフライン強化学習(RL)では、環境との歴史的相互作用のデータセットのみに基づく高報酬政策を学習することが目的である。
モデルベースオフラインRLのためのアルゴリズムフレームワークMOReLを提案する。
オフラインRLベンチマークにおいてMOReLが最先端の結果と一致するか,あるいは超えるかを示す。
論文 参考訳(メタデータ) (2020-05-12T17:52:43Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z) - Dynamic Energy Dispatch Based on Deep Reinforcement Learning in
IoT-Driven Smart Isolated Microgrids [8.623472323825556]
マイクログリッド(MG)は、大きなユーティリティグリッドとは独立して動作可能な小型でローカルな電力グリッドである。
本稿では、IoT駆動型スマートアイソレーションMGのための深部強化学習(DRL)に基づくエネルギーディスパッチに焦点を当てる。
2つの新しいDRLアルゴリズムが提案され、完全観測可能な状態情報とともに、かつ、不要なエネルギー供給ポリシーを導出する。
論文 参考訳(メタデータ) (2020-02-07T01:44:18Z) - NeurOpt: Neural network based optimization for building energy
management and climate control [58.06411999767069]
モデル同定のコストを削減するために,ニューラルネットワークに基づくデータ駆動制御アルゴリズムを提案する。
イタリアにある10の独立したゾーンを持つ2階建ての建物で、学習と制御のアルゴリズムを検証する。
論文 参考訳(メタデータ) (2020-01-22T00:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。