論文の概要: TreeC: a method to generate interpretable energy management systems
using a metaheuristic algorithm
- arxiv url: http://arxiv.org/abs/2304.08310v1
- Date: Mon, 17 Apr 2023 14:27:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 14:49:18.158983
- Title: TreeC: a method to generate interpretable energy management systems
using a metaheuristic algorithm
- Title(参考訳): treec:メタヒューリスティックアルゴリズムを用いた解釈可能なエネルギー管理システムの生成法
- Authors: Julian Ruddick, Luis Ramirez Camargo, Muhammad Andy Putratama, Maarten
Messagie, Thierry Coosemans
- Abstract要約: エネルギー管理システム(EMS)は、ルールベース制御(RBC)とモデル予測制御(MPC)に基づいて古典的に実装されている。
最近の研究は、新しい将来的なアプローチとして強化学習(RL)を研究している。
本稿では,決定木としてモデル化された解釈可能なEMSを生成する機械学習手法であるTreeCを紹介する。
- 参考スコア(独自算出の注目度): 0.9449650062296824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Energy management systems (EMS) have classically been implemented based on
rule-based control (RBC) and model predictive control (MPC) methods. Recent
research are investigating reinforcement learning (RL) as a new promising
approach. This paper introduces TreeC, a machine learning method that uses the
metaheuristic algorithm covariance matrix adaptation evolution strategy
(CMA-ES) to generate an interpretable EMS modeled as a decision tree. This
method learns the decision strategy of the EMS based on historical data
contrary to RBC and MPC approaches that are typically considered as non
adaptive solutions. The decision strategy of the EMS is modeled as a decision
tree and is thus interpretable contrary to RL which mainly uses black-box
models (e.g. neural networks). The TreeC method is compared to RBC, MPC and RL
strategies in two study cases taken from literature: (1) an electric grid case
and (2) a household heating case. The results show that TreeC obtains close
performances than MPC with perfect forecast in both cases and obtains similar
performances to RL in the electrical grid case and outperforms RL in the
household heating case. TreeC demonstrates a performant application of machine
learning for energy management systems that is also fully interpretable.
- Abstract(参考訳): エネルギー管理システム(EMS)は、ルールベース制御(RBC)とモデル予測制御(MPC)に基づいて古典的に実装されている。
最近の研究は、新しい将来的なアプローチとして強化学習(RL)を研究している。
本稿では,メタヒューリスティックアルゴリズム共分散行列適応進化戦略(cma-es)を用いて決定木としてモデル化した解釈可能なemsを生成する機械学習手法treecを提案する。
本手法は, RBC と MPC のアプローチとは対照的に, 歴史的データに基づいて EMS の決定戦略を学習する。
EMSの決定戦略は決定木としてモデル化されており、主にブラックボックスモデル(例えばニューラルネットワーク)を使用するRLとは対照的に解釈可能である。
treec法をrbc法,mpc法,rl法と比較し,(1)電気グリッド法,(2)家庭用暖房法について検討した。
以上の結果から,ツリーCはいずれの場合も完全予測のMPCよりも密接な性能を示し,電力グリッドケースではRLに類似し,家庭暖房ケースではRLに優れていた。
treecは、完全に解釈可能なエネルギー管理システムに対する機械学習の高性能な応用を示す。
関連論文リスト
- End-to-End Reinforcement Learning of Koopman Models for Economic
Nonlinear Model Predictive Control [50.0791489606211]
非線形モデル予測制御((e)NMPC)は、すべての状態空間領域において十分正確なシステムモデルを必要とする。
メカニスティックモデルのためのデータ駆動サロゲートモデルは、(e)NMPCの計算負担を軽減するために使用できる。
In this method for end-to-end reinforcement learning of dynamic surrogate model for optimal performance in (e)NMPC applications。
論文 参考訳(メタデータ) (2023-08-03T10:21:53Z) - Empirical Analysis of AI-based Energy Management in Electric Vehicles: A
Case Study on Reinforcement Learning [9.65075615023066]
強化学習ベース(RLベース)エネルギー管理戦略(EMS)は、複数の電力源を持つ電気自動車のエネルギー管理において有望な解決策であると考えられる。
本稿では, プラグインハイブリッド電気自動車 (PHEV) と燃料電池電気自動車 (FCEV) におけるRL系EMSの実証分析について述べる。
論文 参考訳(メタデータ) (2022-12-18T20:12:20Z) - Progress and summary of reinforcement learning on energy management of
MPS-EV [4.0629930354376755]
エネルギー管理戦略(エネルギ・マネジメント・ストラテジー、EMS)は、MPS-EVが効率、燃費、走行距離を最大化するための重要な技術である。
本稿では,RL ベース EMS に関する現在の研究の詳細な分析を行い,RL ベース EMS の設計要素を要約する。
論文 参考訳(メタデータ) (2022-11-08T04:49:32Z) - GEC: A Unified Framework for Interactive Decision Making in MDP, POMDP,
and Beyond [101.5329678997916]
対話型意思決定の一般的な枠組みの下で, サンプル高能率強化学習(RL)について検討した。
本稿では,探索とエクスプロイトの基本的なトレードオフを特徴付ける,新しい複雑性尺度である一般化エルダー係数(GEC)を提案する。
低 GEC の RL 問題は非常にリッチなクラスであり、これは低ベルマン楕円体次元問題、双線型クラス、低証人ランク問題、PO-双線型クラス、一般化正規PSR を仮定する。
論文 参考訳(メタデータ) (2022-11-03T16:42:40Z) - Contrastive UCB: Provably Efficient Contrastive Self-Supervised Learning
in Online Reinforcement Learning [113.90282991169201]
対照的な自己指導型学習は、(深層)強化学習(RL)の実践にうまく統合されている
我々は,低ランク遷移を伴うマルコフ決定過程(MDP)とマルコフゲーム(MG)のクラスにおいて,コントラスト学習によってRLをどのように強化できるかを検討する。
オンライン環境下では,MDPやMGのオンラインRLアルゴリズムと対照的な損失を生かした,新しい高信頼境界(UCB)型アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-29T17:29:08Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - Does Explicit Prediction Matter in Energy Management Based on Deep
Reinforcement Learning? [2.82357668338266]
本稿では,DRLをベースとした標準エネルギー管理手法を提案する。
シミュレーションの結果,予測のないエネルギー管理方式の方が予測を伴う方式よりも優れていることが示された。
本研究は,エネルギー管理分野におけるDRL法の誤用を是正することを目的としている。
論文 参考訳(メタデータ) (2021-08-11T08:52:42Z) - Model-predictive control and reinforcement learning in multi-energy
system case studies [0.2810625954925815]
線形モデル予測制御(LMPC)に対するオブジェクト指向・非政治多強化学習(RL)アプローチを提案する。
TD3) RL エージェントは, LMPC ベンチマーク (101.5%) にマッチし, 性能を上回る可能性が示唆された。
より複雑なMESシステム構成では、RLエージェントの性能は一般に低い(94.6%)が、現実のLMPCよりも優れている(88.9%)。
論文 参考訳(メタデータ) (2021-04-20T06:51:50Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z) - Dynamic Energy Dispatch Based on Deep Reinforcement Learning in
IoT-Driven Smart Isolated Microgrids [8.623472323825556]
マイクログリッド(MG)は、大きなユーティリティグリッドとは独立して動作可能な小型でローカルな電力グリッドである。
本稿では、IoT駆動型スマートアイソレーションMGのための深部強化学習(DRL)に基づくエネルギーディスパッチに焦点を当てる。
2つの新しいDRLアルゴリズムが提案され、完全観測可能な状態情報とともに、かつ、不要なエネルギー供給ポリシーを導出する。
論文 参考訳(メタデータ) (2020-02-07T01:44:18Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。