論文の概要: Low Emission Building Control with Zero-Shot Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2208.06385v2
- Date: Mon, 15 Aug 2022 20:13:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 10:21:23.831477
- Title: Low Emission Building Control with Zero-Shot Reinforcement Learning
- Title(参考訳): ゼロショット強化学習による低エミッション建築制御
- Authors: Scott R. Jeen, Alessandro Abate, Jonathan M. Cullen
- Abstract要約: 強化学習(RL)による制御は、建築エネルギー効率を著しく向上させることが示されている。
我々は、ゼロショットビルディング制御と呼ばれるパラダイムを優先せずに、排出削減ポリシーを得られることを示す。
- 参考スコア(独自算出の注目度): 70.70479436076238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heating and cooling systems in buildings account for 31\% of global energy
use, much of which are regulated by Rule Based Controllers (RBCs) that neither
maximise energy efficiency nor minimise emissions by interacting optimally with
the grid. Control via Reinforcement Learning (RL) has been shown to
significantly improve building energy efficiency, but existing solutions
require access to building-specific simulators or data that cannot be expected
for every building in the world. In response, we show it is possible to obtain
emission-reducing policies without such knowledge a priori--a paradigm we call
zero-shot building control. We combine ideas from system identification and
model-based RL to create PEARL (Probabilistic Emission-Abating Reinforcement
Learning) and show that a short period of active exploration is all that is
required to build a performant model. In experiments across three varied
building energy simulations, we show PEARL outperforms an existing RBC once,
and popular RL baselines in all cases, reducing building emissions by as much
as 31\% whilst maintaining thermal comfort. Our source code is available online
via https://enjeeneer.io/projects/pearl .
- Abstract(参考訳): 建物内の暖房・冷却システムは、大域的エネルギー利用の31対%を占めており、そのほとんどはルール・ベース・コントローラ(rbcs)によって規制されており、グリッドと最適に相互作用することでエネルギー効率を最大化したり、排出を最小化することはない。
強化学習(RL)による制御は、建築エネルギー効率を大幅に改善することが示されているが、既存のソリューションでは、世界中の建物で期待できないような、建築固有のシミュレータやデータにアクセスする必要がある。
これに対し, ゼロショットビルディング制御と呼ばれるパラダイムを, 事前知識を必要とせずに, 排出削減政策を実現できることを示す。
我々は,PEARL(Probabilistic Emission-Abating Reinforcement Learning)の作成に,システム同定とモデルベースRLのアイデアを組み合わせて,短時間の積極的な探索が,パフォーマンスモデルを構築する上で必要であることを示す。
3種類のビルエネルギーシミュレーション実験において、PEARLは既存のRBCを1回以上上回り、すべてのケースでRLベースラインが人気であり、熱的快適さを維持しながら、ビルの排出を最大31倍削減することを示した。
ソースコードはhttps://enjeeneer.io/projects/pearl.com/で閲覧できます。
関連論文リスト
- Real-World Data and Calibrated Simulation Suite for Offline Training of Reinforcement Learning Agents to Optimize Energy and Emission in Buildings for Environmental Sustainability [2.7624021966289605]
本稿では,実オフィスビルにおけるデバイスの実測から抽出した,オープンソースの対話型HVAC制御データセットについて紹介する。
使いやすくするために、私たちのRL環境は、すべてOpenAIのジム環境標準と互換性があります。
論文 参考訳(メタデータ) (2024-10-02T06:30:07Z) - A Benchmark Environment for Offline Reinforcement Learning in Racing Games [54.83171948184851]
オフライン強化学習(英語: Offline Reinforcement Learning、ORL)は、従来の強化学習(RL)の高サンプリング複雑さを減らすための有望なアプローチである。
本稿では,ORL研究のための新しい環境であるOfflineManiaを紹介する。
TrackManiaシリーズにインスパイアされ、Unity 3Dゲームエンジンで開発された。
論文 参考訳(メタデータ) (2024-07-12T16:44:03Z) - Global Transformer Architecture for Indoor Room Temperature Forecasting [49.32130498861987]
本研究は,多室ビルにおける室内温度予測のためのグローバルトランスフォーマーアーキテクチャを提案する。
エネルギー消費を最適化し、HVACシステムに関連する温室効果ガス排出を削減することを目的としている。
本研究は,マルチルームビルにおける室内温度予測にトランスフォーマーアーキテクチャを適用した最初の事例である。
論文 参考訳(メタデータ) (2023-10-31T14:09:32Z) - Real-World Implementation of Reinforcement Learning Based Energy
Coordination for a Cluster of Households [3.901860248668672]
本研究では, 住宅8棟の電力消費調整における強化学習(RL)の有効性について検討した。
以上の結果から,データ駆動方式で学習したRLに基づくランキングの有効性が示された。
論文 参考訳(メタデータ) (2023-10-29T21:10:38Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - MERLIN: Multi-agent offline and transfer learning for occupant-centric
energy flexible operation of grid-interactive communities using smart meter
data and CityLearn [0.0]
ビルの脱炭は, 送電網の信頼性に新たな課題をもたらす。
我々は,MERLINフレームワークを提案し,CityLearnの現実的なグリッド・インタラクティブな住宅コミュニティのデジタルツインを利用する。
電池の独立型RL制御器は、個々の建物に対するポリシーを調整することによって、基準よりも建物や地区レベルが向上することを示す。
論文 参考訳(メタデータ) (2022-12-31T21:37:14Z) - Zero-Shot Building Control [0.0]
強化学習(RL)による制御は、建築エネルギー効率を著しく向上させることが示されている。
既存のソリューションでは、世界中のすべての建物で入手するのに非常に高価なシミュレーターを事前訓練する必要がある。
システム識別とモデルベースRLのアイデアを組み合わせることで,建物を安全かつゼロショットで制御できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:56:40Z) - Development of a Soft Actor Critic Deep Reinforcement Learning Approach
for Harnessing Energy Flexibility in a Large Office Building [0.0]
本研究は,Soft Actor Critic'(SAC)に基づくDeep Reinforcement Learning(DRL)の新規適用と研究に関するものである。
SACは、連続的なアクションスペースを処理できるモデルフリーのDRL技術です。
論文 参考訳(メタデータ) (2021-04-25T10:33:35Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z) - NeurOpt: Neural network based optimization for building energy
management and climate control [58.06411999767069]
モデル同定のコストを削減するために,ニューラルネットワークに基づくデータ駆動制御アルゴリズムを提案する。
イタリアにある10の独立したゾーンを持つ2階建ての建物で、学習と制御のアルゴリズムを検証する。
論文 参考訳(メタデータ) (2020-01-22T00:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。