論文の概要: TreeC: a method to generate interpretable energy management systems using a metaheuristic algorithm
- arxiv url: http://arxiv.org/abs/2304.08310v2
- Date: Wed, 13 Nov 2024 09:47:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:09:40.708973
- Title: TreeC: a method to generate interpretable energy management systems using a metaheuristic algorithm
- Title(参考訳): TreeC:メタヒューリスティックアルゴリズムを用いて解釈可能なエネルギー管理システムを生成する方法
- Authors: Julian Ruddick, Luis Ramirez Camargo, Muhammad Andy Putratama, Maarten Messagie, Thierry Coosemans,
- Abstract要約: エネルギー管理システム(EMS)は伝統的にルールベース制御(RBC)とモデル予測制御(MPC)を用いて実装されてきた。
本稿では,決定木としてモデル化された解釈可能なEMSを生成する機械学習手法であるTreeCを紹介する。
TreeC は完全予測と RL EMS で MPC に対して評価された。
- 参考スコア(独自算出の注目度): 0.471858286267785
- License:
- Abstract: Energy management systems (EMS) have traditionally been implemented using rule-based control (RBC) and model predictive control (MPC) methods. However, recent research has explored the use of reinforcement learning (RL) as a promising alternative. This paper introduces TreeC, a machine learning method that utilizes the covariance matrix adaptation evolution strategy metaheuristic algorithm to generate an interpretable EMS modeled as a decision tree. Unlike RBC and MPC approaches, TreeC learns the decision strategy of the EMS based on historical data, adapting the control model to the controlled energy grid. The decision strategy is represented as a decision tree, providing interpretability compared to RL methods that often rely on black-box models like neural networks. TreeC is evaluated against MPC with perfect forecast and RL EMSs in two case studies taken from literature: an electric grid case and a household heating case. In the electric grid case, TreeC achieves an average energy loss and constraint violation score of 19.2, which is close to MPC and RL EMSs that achieve scores of 14.4 and 16.2 respectively. All three methods control the electric grid well especially when compared to the random EMS, which obtains an average score of 12 875. In the household heating case, TreeC performs similarly to MPC on the adjusted and averaged electricity cost and total discomfort (0.033 EUR/m$^2$ and 0.42 Kh for TreeC compared to 0.037 EUR/m$^2$ and 2.91 kH for MPC), while outperforming RL (0.266 EUR/m$^2$ and 24.41 Kh).
- Abstract(参考訳): エネルギー管理システム(EMS)は伝統的にルールベース制御(RBC)とモデル予測制御(MPC)を用いて実装されてきた。
しかし、近年の研究では、有望な代替手段として強化学習(RL)の利用が検討されている。
本稿では、共分散行列適応進化戦略メタヒューリスティックアルゴリズムを用いて、決定木としてモデル化された解釈可能なEMSを生成する機械学習手法であるTreeCを紹介する。
RBCやMPCのアプローチとは異なり、TreeCは歴史的データに基づいてEMSの決定戦略を学び、制御されたエネルギーグリッドに制御モデルを適用する。
決定戦略は決定木として表現され、ニューラルネットワークのようなブラックボックスモデルに依存するRLメソッドと比較して解釈性を提供する。
TreeCは、電力グリッドケースと家庭用暖房ケースの2つのケーススタディにおいて、完全予測とRL EMSを用いてMPCに対して評価された。
電力グリッドの場合、ツリーCは平均エネルギー損失と制約違反スコア19.2を達成し、それぞれ14.4と16.2のスコアとなるMPCとRL EMSに近い。
これら3つの手法は, 平均スコアが12 875のランダムEMSと比較して, 電力網をよく制御する。
家計暖房ケースでは、TreeCは調整および平均的な電気コストと総不快感(TreeCは0.033EUR/m$^2$および0.42Kh、MPCは0.037EUR/m$^2$および2.91KH)でMPCと同等に動作し、RL(0.266EUR/m$^2$及び24.41Kh)を上回っている。
関連論文リスト
- Comparison of Model Predictive Control and Proximal Policy Optimization for a 1-DOF Helicopter System [0.7499722271664147]
本研究は,Quanser Aero 2システムに適用された深層強化学習(DRL)アルゴリズムであるモデル予測制御(MPC)とPPOの比較分析を行う。
PPOは上昇時間と適応性に優れており、迅速な応答と適応性を必要とするアプリケーションには有望なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:35:34Z) - Empirical Analysis of AI-based Energy Management in Electric Vehicles: A
Case Study on Reinforcement Learning [9.65075615023066]
強化学習ベース(RLベース)エネルギー管理戦略(EMS)は、複数の電力源を持つ電気自動車のエネルギー管理において有望な解決策であると考えられる。
本稿では, プラグインハイブリッド電気自動車 (PHEV) と燃料電池電気自動車 (FCEV) におけるRL系EMSの実証分析について述べる。
論文 参考訳(メタデータ) (2022-12-18T20:12:20Z) - Progress and summary of reinforcement learning on energy management of
MPS-EV [4.0629930354376755]
エネルギー管理戦略(エネルギ・マネジメント・ストラテジー、EMS)は、MPS-EVが効率、燃費、走行距離を最大化するための重要な技術である。
本稿では,RL ベース EMS に関する現在の研究の詳細な分析を行い,RL ベース EMS の設計要素を要約する。
論文 参考訳(メタデータ) (2022-11-08T04:49:32Z) - GEC: A Unified Framework for Interactive Decision Making in MDP, POMDP,
and Beyond [101.5329678997916]
対話型意思決定の一般的な枠組みの下で, サンプル高能率強化学習(RL)について検討した。
本稿では,探索とエクスプロイトの基本的なトレードオフを特徴付ける,新しい複雑性尺度である一般化エルダー係数(GEC)を提案する。
低 GEC の RL 問題は非常にリッチなクラスであり、これは低ベルマン楕円体次元問題、双線型クラス、低証人ランク問題、PO-双線型クラス、一般化正規PSR を仮定する。
論文 参考訳(メタデータ) (2022-11-03T16:42:40Z) - Contrastive UCB: Provably Efficient Contrastive Self-Supervised Learning in Online Reinforcement Learning [92.18524491615548]
対照的な自己指導型学習は、(深層)強化学習(RL)の実践にうまく統合されている
我々は,低ランク遷移を伴うマルコフ決定過程(MDP)とマルコフゲーム(MG)のクラスにおいて,コントラスト学習によってRLをどのように強化できるかを検討する。
オンライン環境下では,MDPやMGのオンラインRLアルゴリズムと対照的な損失を生かした,新しい高信頼境界(UCB)型アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-29T17:29:08Z) - Comparative analysis of machine learning methods for active flow control [60.53767050487434]
遺伝的プログラミング(GP)と強化学習(RL)はフロー制御において人気を集めている。
この研究は2つの比較分析を行い、地球規模の最適化手法に対して最も代表的なアルゴリズムのいくつかをベンチマークする。
論文 参考訳(メタデータ) (2022-02-23T18:11:19Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - Does Explicit Prediction Matter in Energy Management Based on Deep
Reinforcement Learning? [2.82357668338266]
本稿では,DRLをベースとした標準エネルギー管理手法を提案する。
シミュレーションの結果,予測のないエネルギー管理方式の方が予測を伴う方式よりも優れていることが示された。
本研究は,エネルギー管理分野におけるDRL法の誤用を是正することを目的としている。
論文 参考訳(メタデータ) (2021-08-11T08:52:42Z) - Model-predictive control and reinforcement learning in multi-energy
system case studies [0.2810625954925815]
線形モデル予測制御(LMPC)に対するオブジェクト指向・非政治多強化学習(RL)アプローチを提案する。
TD3) RL エージェントは, LMPC ベンチマーク (101.5%) にマッチし, 性能を上回る可能性が示唆された。
より複雑なMESシステム構成では、RLエージェントの性能は一般に低い(94.6%)が、現実のLMPCよりも優れている(88.9%)。
論文 参考訳(メタデータ) (2021-04-20T06:51:50Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。