論文の概要: TreeC: a method to generate interpretable energy management systems using a metaheuristic algorithm
- arxiv url: http://arxiv.org/abs/2304.08310v2
- Date: Wed, 13 Nov 2024 09:47:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:09:40.708973
- Title: TreeC: a method to generate interpretable energy management systems using a metaheuristic algorithm
- Title(参考訳): TreeC:メタヒューリスティックアルゴリズムを用いて解釈可能なエネルギー管理システムを生成する方法
- Authors: Julian Ruddick, Luis Ramirez Camargo, Muhammad Andy Putratama, Maarten Messagie, Thierry Coosemans,
- Abstract要約: エネルギー管理システム(EMS)は伝統的にルールベース制御(RBC)とモデル予測制御(MPC)を用いて実装されてきた。
本稿では,決定木としてモデル化された解釈可能なEMSを生成する機械学習手法であるTreeCを紹介する。
TreeC は完全予測と RL EMS で MPC に対して評価された。
- 参考スコア(独自算出の注目度): 0.471858286267785
- License:
- Abstract: Energy management systems (EMS) have traditionally been implemented using rule-based control (RBC) and model predictive control (MPC) methods. However, recent research has explored the use of reinforcement learning (RL) as a promising alternative. This paper introduces TreeC, a machine learning method that utilizes the covariance matrix adaptation evolution strategy metaheuristic algorithm to generate an interpretable EMS modeled as a decision tree. Unlike RBC and MPC approaches, TreeC learns the decision strategy of the EMS based on historical data, adapting the control model to the controlled energy grid. The decision strategy is represented as a decision tree, providing interpretability compared to RL methods that often rely on black-box models like neural networks. TreeC is evaluated against MPC with perfect forecast and RL EMSs in two case studies taken from literature: an electric grid case and a household heating case. In the electric grid case, TreeC achieves an average energy loss and constraint violation score of 19.2, which is close to MPC and RL EMSs that achieve scores of 14.4 and 16.2 respectively. All three methods control the electric grid well especially when compared to the random EMS, which obtains an average score of 12 875. In the household heating case, TreeC performs similarly to MPC on the adjusted and averaged electricity cost and total discomfort (0.033 EUR/m$^2$ and 0.42 Kh for TreeC compared to 0.037 EUR/m$^2$ and 2.91 kH for MPC), while outperforming RL (0.266 EUR/m$^2$ and 24.41 Kh).
- Abstract(参考訳): エネルギー管理システム(EMS)は伝統的にルールベース制御(RBC)とモデル予測制御(MPC)を用いて実装されてきた。
しかし、近年の研究では、有望な代替手段として強化学習(RL)の利用が検討されている。
本稿では、共分散行列適応進化戦略メタヒューリスティックアルゴリズムを用いて、決定木としてモデル化された解釈可能なEMSを生成する機械学習手法であるTreeCを紹介する。
RBCやMPCのアプローチとは異なり、TreeCは歴史的データに基づいてEMSの決定戦略を学び、制御されたエネルギーグリッドに制御モデルを適用する。
決定戦略は決定木として表現され、ニューラルネットワークのようなブラックボックスモデルに依存するRLメソッドと比較して解釈性を提供する。
TreeCは、電力グリッドケースと家庭用暖房ケースの2つのケーススタディにおいて、完全予測とRL EMSを用いてMPCに対して評価された。
電力グリッドの場合、ツリーCは平均エネルギー損失と制約違反スコア19.2を達成し、それぞれ14.4と16.2のスコアとなるMPCとRL EMSに近い。
これら3つの手法は, 平均スコアが12 875のランダムEMSと比較して, 電力網をよく制御する。
家計暖房ケースでは、TreeCは調整および平均的な電気コストと総不快感(TreeCは0.033EUR/m$^2$および0.42Kh、MPCは0.037EUR/m$^2$および2.91KH)でMPCと同等に動作し、RL(0.266EUR/m$^2$及び24.41Kh)を上回っている。
関連論文リスト
- Real-world validation of safe reinforcement learning, model predictive control and decision tree-based home energy management systems [0.8480931990442769]
本稿では,機械学習に基づくエネルギー管理手法の現実的検証について述べる。
住宅の4つの再生を電気的に設置する実験を行った。
論文 参考訳(メタデータ) (2024-08-14T10:12:15Z) - Robust Model Based Reinforcement Learning Using $\mathcal{L}_1$ Adaptive Control [4.88489286130994]
本稿では,モデルベース強化学習(MBRL)アルゴリズムに対する制御理論の拡張手法を提案する。
MBRLアルゴリズムはデータを用いて遷移関数のモデルを学び、それを使って制御入力を設計する。
提案法則に従って,本手法は学習遷移関数の近似制御-アフィンモデルを生成する。
論文 参考訳(メタデータ) (2024-03-21T22:15:09Z) - Go Beyond Black-box Policies: Rethinking the Design of Learning Agent
for Interpretable and Verifiable HVAC Control [3.326392645107372]
熱力学モデルと過去のデータから抽出した決定木を用いてHVACコントローラを再設計することでボトルネックを克服する。
本手法は68.4%のエネルギーを節約し, 人間の快適度を14.8%向上させる。
論文 参考訳(メタデータ) (2024-02-29T22:42:23Z) - WARM: On the Benefits of Weight Averaged Reward Models [63.08179139233774]
Weight Averaged Reward Models (WARM) を提案する。
最良N法とRL法を用いた要約タスクの実験は、WARMがLLM予測の全体的な品質とアライメントを改善することを示す。
論文 参考訳(メタデータ) (2024-01-22T18:27:08Z) - A Comparison of Model-Free and Model Predictive Control for Price
Responsive Water Heaters [7.579687492224987]
本稿では,2つのモデルフリー制御アルゴリズムの比較,および回帰水平モデル予測制御(MPC)について述べる。
MPCの4つのバリエーションは、完璧な予測を行うワンショットコントローラ、完全な予測を行う限定水平コントローラ、歴史的なシナリオを使用する2段階のプログラミングコントローラである。
ESとPPOは、平均予測と2段階のMPCコントローラを平均コストで上回り、計算動作において2桁以上高速である、優れた汎用ポリシーを学習している。
論文 参考訳(メタデータ) (2021-11-08T18:06:43Z) - Does Explicit Prediction Matter in Energy Management Based on Deep
Reinforcement Learning? [2.82357668338266]
本稿では,DRLをベースとした標準エネルギー管理手法を提案する。
シミュレーションの結果,予測のないエネルギー管理方式の方が予測を伴う方式よりも優れていることが示された。
本研究は,エネルギー管理分野におけるDRL法の誤用を是正することを目的としている。
論文 参考訳(メタデータ) (2021-08-11T08:52:42Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Controlling Rayleigh-B\'enard convection via Reinforcement Learning [62.997667081978825]
固定外熱勾配下での対流熱交換を抑制または促進するための効果的な制御戦略の同定は、重要な基本的かつ技術的問題である。
本研究では,最先端の強化学習(RL)アルゴリズムに基づく新しい手法を提案する。
我々のRL制御は導電系を安定させ、対流の開始をレイリー数にすることができることを示す。
論文 参考訳(メタデータ) (2020-03-31T16:39:25Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z) - NeurOpt: Neural network based optimization for building energy
management and climate control [58.06411999767069]
モデル同定のコストを削減するために,ニューラルネットワークに基づくデータ駆動制御アルゴリズムを提案する。
イタリアにある10の独立したゾーンを持つ2階建ての建物で、学習と制御のアルゴリズムを検証する。
論文 参考訳(メタデータ) (2020-01-22T00:51:03Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。