論文の概要: Reinforcement Learning-Based Co-Design and Operation of Chiller and Thermal Energy Storage for Cost-Optimal HVAC Systems
- arxiv url: http://arxiv.org/abs/2601.22880v1
- Date: Fri, 30 Jan 2026 12:02:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.421015
- Title: Reinforcement Learning-Based Co-Design and Operation of Chiller and Thermal Energy Storage for Cost-Optimal HVAC Systems
- Title(参考訳): コスト最適HVACシステムのための強化学習型協調設計と蓄熱器の運用
- Authors: Tanay Raghunandan Srinivasa, Vivek Deulkar, Aviruch Bhatia, Vishal Garg,
- Abstract要約: 強化学習を用いた商用HVACシステムにおける冷却設備の連成運転と小型化について検討した。
ライフサイクルコストは、電力消費やメンテナンスを含む資本支出と割引運用コストの両方を担っている。
提案手法を用いて, 最適シラーと蓄熱容量をそれぞれ700, 1500とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the joint operation and sizing of cooling infrastructure for commercial HVAC systems using reinforcement learning, with the objective of minimizing life-cycle cost over a 30-year horizon. The cooling system consists of a fixed-capacity electric chiller and a thermal energy storage (TES) unit, jointly operated to meet stochastic hourly cooling demands under time-varying electricity prices. The life-cycle cost accounts for both capital expenditure and discounted operating cost, including electricity consumption and maintenance. A key challenge arises from the strong asymmetry in capital costs: increasing chiller capacity by one unit is far more expensive than an equivalent increase in TES capacity. As a result, identifying the right combination of chiller and TES sizes, while ensuring zero loss-of-cooling-load under optimal operation, is a non-trivial co-design problem. To address this, we formulate the chiller operation problem for a fixed infrastructure configuration as a finite-horizon Markov Decision Process (MDP), in which the control action is the chiller part-load ratio (PLR). The MDP is solved using a Deep Q Network (DQN) with a constrained action space. The learned DQN RL policy minimizes electricity cost over historical traces of cooling demand and electricity prices. For each candidate chiller-TES sizing configuration, the trained policy is evaluated. We then restrict attention to configurations that fully satisfy the cooling demand and perform a life-cycle cost minimization over this feasible set to identify the cost-optimal infrastructure design. Using this approach, we determine the optimal chiller and thermal energy storage capacities to be 700 and 1500, respectively.
- Abstract(参考訳): 本研究では,30年以上の地平線上でのライフサイクルコストの最小化を目的として,強化学習を用いた商用HVACシステムの共同運転と冷却インフラの小型化について検討した。
冷却システムは、固定容量の電気チラーと熱エネルギー貯蔵(TES)ユニットで構成され、時間帯の電気価格で時間帯の冷却要求を満たすために共同で作動する。
ライフサイクルコストは、電力消費やメンテナンスを含む資本支出と割引運用コストの両方を担っている。
重要な課題は、資本コストの強い非対称性から生じている: 1ユニット当たりのシラー容量の増加は、TES容量の同等の増加よりもはるかに高価である。
その結果、最適動作下での冷却負荷のゼロを保証しながら、チェラーとTESの適切な組み合わせを特定することは、非自明な共設計問題である。
これを解決するために、固定インフラストラクチャ構成のシラー演算問題を有限水平マルコフ決定プロセス(MDP)として定式化し、シラー部分負荷比(PLR)を制御動作とする。
MDPは、制約されたアクション空間を持つディープQネットワーク(DQN)を用いて解決される。
学習されたDQN RLポリシーは、冷却需要と電力価格の歴史的痕跡よりも電力コストを最小化する。
各候補のchiller-TESサイズ設定について、トレーニングされたポリシーを評価する。
次に、冷却需要を完全に満たす構成に注意を向け、この実現可能なセットに対してライフサイクルコストの最小化を行い、コスト最適インフラ設計を特定する。
提案手法を用いて, 最適シラーと蓄熱容量をそれぞれ700, 1500とする。
関連論文リスト
- Techno-economic optimization of a heat-pipe microreactor, part I: theory and cost optimization [0.0]
マイクロリアクターは、高価な燃料が支配的な遠隔地へのアクセスに適している。
彼らは規模の不一致に悩まされ、その財政的生存性はいまだに説得力のないままである。
本稿では,テクノ・経済学的考察を考慮に入れた新しい幾何学的設計最適化手法を提案する。
論文 参考訳(メタデータ) (2025-12-17T23:28:13Z) - Shielded Controller Units for RL with Operational Constraints Applied to Remote Microgrids [50.64533198075622]
強化学習(Reinforcement Learning, RL)は、不確実性の下で複雑なシステムにおける意思決定を最適化するための強力なフレームワークである。
本稿では,システムダイナミクスの事前知識を活用する体系的かつ解釈可能なアプローチであるシールド制御ユニット(SCU)を紹介する。
本研究では,厳密な運用要件を持つ遠隔マイクログリッド最適化タスクにおけるSCUの有効性を示す。
論文 参考訳(メタデータ) (2025-11-30T19:28:34Z) - Optimization of Residential Demand Response Program Cost with
Consideration for Occupants Thermal Comfort and Privacy [0.1259953341639576]
家庭用エネルギー管理システム(HEMS)は、空調設定点(AC)を自動的に調整し、一部の機器をオフピーク時間にシフトすることで、消費者のコストを削減する。
建物の居住状況では、直接感知はコストが高く、不正確で、住民にとって侵入的である。
シミュレーションの結果,不確実性を考慮するとコストが36%増加し,交流温度設定値が低下することが示唆された。
論文 参考訳(メタデータ) (2023-05-14T05:53:39Z) - Powerful ordered collective heat engines [58.720142291102135]
本稿では,同期動作を行うユニットのシステムによって性能が向上するエンジンのクラスを紹介する。
熱機関として運用するには,Isingライクな相互作用と集合秩序体制との相互作用が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-01-16T20:14:19Z) - Distributed Multi-Agent Deep Reinforcement Learning Framework for
Whole-building HVAC Control [1.796271361142275]
商業ビルにおける総電力消費量の約40%-50%は、暖房・換気・空調システムによるものと推定されている。
本稿では,Energy Plusシミュレーション環境に基づく多エージェント分散深部強化学習(DRL)フレームワークを提案する。
DRLを用いて、エネルギー消費の75%以上を節約できる。
論文 参考訳(メタデータ) (2021-10-26T07:29:16Z) - Multi-Agent Deep Reinforcement Learning for HVAC Control in Commercial
Buildings [38.326533494236266]
商業ビルでは、総電力の約40%-50%が暖房、換気、空調システムによるものである。
本稿では, ゾーンの占有, 熱的快適さ, 室内空気質の快適さをともなう動的価格の下で, マルチゾーンビルにおけるHVACシステムのエネルギーコストを最小化することを目的としている。
論文 参考訳(メタデータ) (2020-06-25T03:41:42Z) - Controlling Rayleigh-B\'enard convection via Reinforcement Learning [62.997667081978825]
固定外熱勾配下での対流熱交換を抑制または促進するための効果的な制御戦略の同定は、重要な基本的かつ技術的問題である。
本研究では,最先端の強化学習(RL)アルゴリズムに基づく新しい手法を提案する。
我々のRL制御は導電系を安定させ、対流の開始をレイリー数にすることができることを示す。
論文 参考訳(メタデータ) (2020-03-31T16:39:25Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z) - NeurOpt: Neural network based optimization for building energy
management and climate control [58.06411999767069]
モデル同定のコストを削減するために,ニューラルネットワークに基づくデータ駆動制御アルゴリズムを提案する。
イタリアにある10の独立したゾーンを持つ2階建ての建物で、学習と制御のアルゴリズムを検証する。
論文 参考訳(メタデータ) (2020-01-22T00:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。