論文の概要: Exploring Deep Reinforcement Learning for Holistic Smart Building
Control
- arxiv url: http://arxiv.org/abs/2301.11510v1
- Date: Fri, 27 Jan 2023 03:03:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 16:31:01.862617
- Title: Exploring Deep Reinforcement Learning for Holistic Smart Building
Control
- Title(参考訳): スマートビル制御のための深層強化学習の探索
- Authors: Xianzhong Ding, Alberto Cerpa and Wan Du
- Abstract要約: 我々はOCTOPUSと呼ばれるシステムを開発し、データ駆動方式を用いてすべての建物のサブシステムの最適制御シーケンスを探索する。
OCTOPUSは、LEEDゴールド認定ビルにおける最先端のルールベースの手法と比較して14.26%と8.1%の省エネを達成できる。
- 参考スコア(独自算出の注目度): 3.463438487417909
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we take a holistic approach to deal with the tradeoffs between
energy use and comfort in commercial buildings. We developed a system called
OCTOPUS, which employs a novel deep reinforcement learning (DRL) framework that
uses a data-driven approach to find the optimal control sequences of all
building's subsystems, including HVAC, lighting, blind and window systems. The
DRL architecture includes a novel reward function that allows the framework to
explore the tradeoffs between energy use and users' comfort, while at the same
time enabling the solution of the high-dimensional control problem due to the
interactions of four different building subsystems. In order to cope with
OCTOPUS's data training requirements, we argue that calibrated simulations that
match the target building operational points are the vehicle to generate enough
data to be able to train our DRL framework to find the control solution for the
target building. In our work, we trained OCTOPUS with 10-year weather data and
a building model that is implemented in the EnergyPlus building simulator,
which was calibrated using data from a real production building. Through
extensive simulations, we demonstrate that OCTOPUS can achieve 14.26% and 8.1%
energy savings compared with the state-of-the-art rule-based method in a LEED
Gold Certified building and the latest DRL-based method available in the
literature respectively, while maintaining human comfort within a desired
range.
- Abstract(参考訳): 本稿では,商業ビルにおけるエネルギー利用と快適性とのトレードオフに対処するために,総合的なアプローチをとる。
我々は,HVAC,照明,ブラインド,ウィンドウシステムを含むすべての建物のサブシステムの最適制御シーケンスを見つけるために,データ駆動型アプローチを用いた新しい深層強化学習(DRL)フレームワークを用いたOCTOPUSというシステムを開発した。
DRLアーキテクチャは、エネルギー使用とユーザの快適性の間のトレードオフを探索すると同時に、4つの異なる建物サブシステムの相互作用による高次元制御問題の解決を可能にする新しい報酬関数を含む。
OCTOPUSのデータトレーニング要件に対処するために、ターゲットの運用ポイントにマッチするキャリブレーションされたシミュレーションは、ターゲットのビルの制御ソリューションを見つけるためにDRLフレームワークをトレーニングできる十分なデータを生成するための車両である、と我々は主張する。
本研究では,10年間の気象データを用いてOCTOPUSを訓練し,実際の建物からのデータを用いて校正したEnergyPlusビルディングシミュレータに実装したビルモデルを構築した。
広範囲のシミュレーションにより,leedゴールド認定建物における最先端のルールベース手法と,文献で利用可能な最新のdrlベース手法と比較して,オクトパスが14.26%と8.1%の省エネを達成可能であることを実証した。
関連論文リスト
- Real-World Data and Calibrated Simulation Suite for Offline Training of Reinforcement Learning Agents to Optimize Energy and Emission in Buildings for Environmental Sustainability [2.7624021966289605]
本稿では,実オフィスビルにおけるデバイスの実測から抽出した,オープンソースの対話型HVAC制御データセットについて紹介する。
使いやすくするために、私たちのRL環境は、すべてOpenAIのジム環境標準と互換性があります。
論文 参考訳(メタデータ) (2024-10-02T06:30:07Z) - A Benchmark Environment for Offline Reinforcement Learning in Racing Games [54.83171948184851]
オフライン強化学習(英語: Offline Reinforcement Learning、ORL)は、従来の強化学習(RL)の高サンプリング複雑さを減らすための有望なアプローチである。
本稿では,ORL研究のための新しい環境であるOfflineManiaを紹介する。
TrackManiaシリーズにインスパイアされ、Unity 3Dゲームエンジンで開発された。
論文 参考訳(メタデータ) (2024-07-12T16:44:03Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - A Lightweight Calibrated Simulation Enabling Efficient Offline Learning
for Optimal Control of Real Buildings [3.2634122554914002]
強化学習モデルを学習するためのシミュレーションに基づく新しい手法を提案する。
当社のオープンソースシミュレーターは軽量で、ビルからのテレメトリによってキャリブレーションされ、より高い忠実度に到達しています。
このアプローチは多くの建物に拡張可能な実世界のRL制御システムを実現するための重要なステップである。
論文 参考訳(メタデータ) (2023-10-12T17:56:23Z) - BEAR: Physics-Principled Building Environment for Control and
Reinforcement Learning [9.66911049633598]
BEARは制御強化学習のための物理を基礎とした建築環境である。
研究者はモデルベースとモデルフリーの両方のコントローラを、外部ビルディングシミュレータを併用することなく、Pythonの標準ビルディングモデルの広範なコレクションを使用してベンチマークすることができる。
モデル予測制御(MPC)と2つのケーススタディを持つ最先端RL法の両方を含む,異なるコントローラによるBEARの互換性と性能を実証する。
論文 参考訳(メタデータ) (2022-11-27T06:36:35Z) - Low Emission Building Control with Zero-Shot Reinforcement Learning [70.70479436076238]
強化学習(RL)による制御は、建築エネルギー効率を著しく向上させることが示されている。
我々は、ゼロショットビルディング制御と呼ばれるパラダイムを優先せずに、排出削減ポリシーを得られることを示す。
論文 参考訳(メタデータ) (2022-08-12T17:13:25Z) - Architecting and Visualizing Deep Reinforcement Learning Models [77.34726150561087]
深層強化学習(Deep Reinforcement Learning, DRL)は、コンピュータが相互にコミュニケーションする方法を教えることを目的とした理論である。
本稿では,新しいAtari Pongゲーム環境,ポリシーグラデーションに基づくDRLモデル,リアルタイムネットワーク可視化,そしてDRL推論の直観と認識を構築するためのインタラクティブディスプレイを提案する。
論文 参考訳(メタデータ) (2021-12-02T17:48:26Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - Development of a Soft Actor Critic Deep Reinforcement Learning Approach
for Harnessing Energy Flexibility in a Large Office Building [0.0]
本研究は,Soft Actor Critic'(SAC)に基づくDeep Reinforcement Learning(DRL)の新規適用と研究に関するものである。
SACは、連続的なアクションスペースを処理できるモデルフリーのDRL技術です。
論文 参考訳(メタデータ) (2021-04-25T10:33:35Z) - NeurOpt: Neural network based optimization for building energy
management and climate control [58.06411999767069]
モデル同定のコストを削減するために,ニューラルネットワークに基づくデータ駆動制御アルゴリズムを提案する。
イタリアにある10の独立したゾーンを持つ2階建ての建物で、学習と制御のアルゴリズムを検証する。
論文 参考訳(メタデータ) (2020-01-22T00:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。