論文の概要: Data-driven MIMO control of room temperature and bidirectional EV
charging using deep reinforcement learning: simulation and experiments
- arxiv url: http://arxiv.org/abs/2103.01886v1
- Date: Tue, 2 Mar 2021 17:31:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 15:39:45.364513
- Title: Data-driven MIMO control of room temperature and bidirectional EV
charging using deep reinforcement learning: simulation and experiments
- Title(参考訳): 深部強化学習を用いた室温および双方向EV充電のデータ駆動MIMO制御:シミュレーションと実験
- Authors: B. Svetozarevic, C.Baumann, S. Muntwiler, L. Di Natale, P. Heer, M.
Zeilinger
- Abstract要約: 建物におけるマルチインプットマルチアウトプット(MIMO)問題の制御方針を得るための,完全ブラックボックスデータ駆動方式を提案する。
目的は、次の旅行に十分なエネルギーをEVバッテリーに残しながら、乗員の快適さと省エネを最大化することである。
リカレントニューラルネットワークとピースワイズ線形関数を用いて室温とEV充電をモデル化しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The control of modern buildings is, on one hand, a complex multi-variable
control problem due to the integration of renewable energy generation devices,
storage devices, and connection of electrical vehicles (EVs), and, on the other
hand, a complex multi-criteria problem due to requirements for overall energy
minimization and comfort satisfaction. Both conventional rule-based (RB) and
advanced model-based controllers, such as model predictive control (MPC),
cannot fulfil the current building automation industry requirements of
achieving system-wide optimal performance of a modern building at low
commissioning and maintenance costs. In this work, we present a fully
black-box, data-driven method to obtain a control policy for a
multi-input-multi-output (MIMO) problem in buildings -- the joint control of a
room temperature and a bidirectional EV charging -- with the aim to maximize
occupants comfort and energy savings while leaving enough energy in the EV
battery for the next trip. We modelled the room temperature and EV charging
using recurrent neural networks and a piece-wise linear function, respectively,
and used these models as a simulation environment for the Deep Deterministic
Policy Gradient (DDPG) reinforcement learning algorithm to find an optimal
control policy. In the simulation, the DDPG control agent achieved on average
17% energy savings and 19% better comfort during the heating season compared to
a standard RB controller. Similarly, for the joint room heating and
bidirectional EV charging control, the DDPG MIMO controller achieved on average
12% better comfort satisfaction, 11% energy savings, and 42% energy costs
savings compared to two standard RB controllers. We also validated the method
on the DFAB HOUSE at Empa, Duebendorf, in Switzerland where we obtained 27%
energy savings at better comfort over three weeks during the heating season.
- Abstract(参考訳): 現代の建物の制御は、再生可能エネルギー発生装置、貯蔵装置、電気自動車の接続(evs)の統合による複雑な多変量制御問題であり、一方、全体的なエネルギーの最小化と快適さの要求による複雑な多変量制御問題である。
従来のルールベース(rb)とモデル予測制御(mpc)のような先進的なモデルベースのコントローラは、現代の建物のシステム全体の最適性能を達成するための現在の自動化産業要件を、低い手数料とメンテナンスコストで満たすことができない。
本研究では,ビル内におけるマルチインプット・マルチ・アウトプット(MIMO)問題(室温と双方向EV充電の連成制御)の制御ポリシを,次回の旅行に必要なEVバッテリに十分なエネルギーを残しながら,収容者の快適さと省エネを最大化することを目的とした,完全にブラックボックスなデータ駆動方式を提案する。
室内温度とEV帯電を,繰り返しニューラルネットワークと一方向線形関数を用いてモデル化し,これらのモデルをDDPG(Deep Deterministic Policy Gradient)強化学習アルゴリズムのシミュレーション環境として利用し,最適制御ポリシーの探索を行った。
シミュレーションでは、DDPG制御剤は標準のRBコントローラと比較して平均17%の省エネと19%の快適性を達成した。
同様に、ジョイントルームの暖房と双方向のEV充電制御では、DDPG MIMOコントローラは2つの標準RBコントローラと比較して平均12%の快適さ、11%の省エネ、42%の省エネを実現した。
また、スイスのデュッベンドルフのエムパにあるDFAB HOUSEの手法も検証し、暖房シーズン中に3週間にわたってより良い快適さで27%の省エネを得ました。
関連論文リスト
- Centralized vs. Decentralized Multi-Agent Reinforcement Learning for Enhanced Control of Electric Vehicle Charging Networks [1.9188272016043582]
本稿では,MARL(Multi-Agent Reinforcement Learning)フレームワークを用いた分散・協調型充電戦略の新たなアプローチを提案する。
本手法は, 住宅街におけるEV群を対象としたDDPGアルゴリズムに基づいて構築した。
以上の結果から, CTDE-DDPGフレームワークは, 政策のばらつきや訓練の複雑さが高いにもかかわらず, 総変動率を約36パーセント, 充電コストを平均9.1程度削減することにより, 充電効率を著しく向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-18T21:50:03Z) - Global Transformer Architecture for Indoor Room Temperature Forecasting [49.32130498861987]
本研究は,多室ビルにおける室内温度予測のためのグローバルトランスフォーマーアーキテクチャを提案する。
エネルギー消費を最適化し、HVACシステムに関連する温室効果ガス排出を削減することを目的としている。
本研究は,マルチルームビルにおける室内温度予測にトランスフォーマーアーキテクチャを適用した最初の事例である。
論文 参考訳(メタデータ) (2023-10-31T14:09:32Z) - Federated Reinforcement Learning for Electric Vehicles Charging Control
on Distribution Networks [42.04263644600909]
マルチエージェント深部強化学習(MADRL)はEV充電制御において有効であることが証明されている。
既存のMADRLベースのアプローチでは、配電ネットワークにおけるEV充電/放電の自然な電力フローを考慮できない。
本稿では,マルチEV充電/放電と最適電力流で動作する放射分布ネットワーク(RDN)を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-17T05:34:46Z) - Autonomous Payload Thermal Control [55.2480439325792]
小さな衛星では、熱制御装置、科学機器、電子部品のスペースは少ない。
深部強化学習を用いた自律型熱制御ツールを提案する。
提案するフレームワークは,運用範囲の温度を維持するためにペイロード処理能力の制御を学べる。
論文 参考訳(メタデータ) (2023-07-28T09:40:19Z) - Laxity-Aware Scalable Reinforcement Learning for HVAC Control [2.0625936401496237]
我々は,各操作要求の緊急レベルを定量化するために,遅延の概念を活用することにより,モデリングと制御における次元問題の呪いに取り組む。
本研究では,多くのHVACシステムに対する2段階のエネルギー最適化手法を提案する。
論文 参考訳(メタデータ) (2023-06-29T01:28:14Z) - Low Emission Building Control with Zero-Shot Reinforcement Learning [70.70479436076238]
強化学習(RL)による制御は、建築エネルギー効率を著しく向上させることが示されている。
我々は、ゼロショットビルディング制御と呼ばれるパラダイムを優先せずに、排出削減ポリシーを得られることを示す。
論文 参考訳(メタデータ) (2022-08-12T17:13:25Z) - Computationally efficient joint coordination of multiple electric
vehicle charging points using reinforcement learning [6.37470346908743]
今日の電力網における大きな課題は、電気自動車(EV)充電による負荷の増加を管理することである。
同時に複数の充電点を協調的に座標する単一ステップの解法を提案する。
我々の新しいRLソリューションは、ビジネス・アズ・ユース・ポリシーと比較して、充電需要調整の性能を40~50%向上させています。
論文 参考訳(メタデータ) (2022-03-26T13:42:57Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z) - NeurOpt: Neural network based optimization for building energy
management and climate control [58.06411999767069]
モデル同定のコストを削減するために,ニューラルネットワークに基づくデータ駆動制御アルゴリズムを提案する。
イタリアにある10の独立したゾーンを持つ2階建ての建物で、学習と制御のアルゴリズムを検証する。
論文 参考訳(メタデータ) (2020-01-22T00:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。