論文の概要: Controlling Commercial Cooling Systems Using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2211.07357v1
- Date: Fri, 11 Nov 2022 17:48:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 17:04:37.537036
- Title: Controlling Commercial Cooling Systems Using Reinforcement Learning
- Title(参考訳): 強化学習による商用冷却システム制御
- Authors: Jerry Luo, Cosmin Paduraru, Octavian Voicu, Yuri Chervonyi, Scott
Munns, Jerry Li, Crystal Qian, Praneet Dutta, Jared Quincy Davis, Ningjia Wu,
Xingwei Yang, Chu-Ming Chang, Ted Li, Rob Rose, Mingyan Fan, Hootan Nakhost,
Tinglin Liu, Brian Kirkman, Frank Altamura, Lee Cline, Patrick Tonker, Joel
Gouker, Dave Uden, Warren Buddy Bryan, Jason Law, Deeni Fatiha, Neil Satra,
Juliet Rothenberg, Molly Carlin, Satish Tallapaka, Sims Witherspoon, David
Parish, Peter Dolan, Chenyu Zhao, Daniel J. Mankowitz
- Abstract要約: 本稿では,DeepMindとGoogleが最近行った,商用冷却システム制御のための強化学習の技術的概要について述べる。
我々は最近,ビル管理システムプロバイダであるTrane Technologiesと共同で,現実世界の2つの施設のライブ実験を行った。
本稿は、これらの課題について、将来のRLの作業に対する認識が有益であることを願って説明する。
- 参考スコア(独自算出の注目度): 10.57737614170275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper is a technical overview of DeepMind and Google's recent work on
reinforcement learning for controlling commercial cooling systems. Building on
expertise that began with cooling Google's data centers more efficiently, we
recently conducted live experiments on two real-world facilities in partnership
with Trane Technologies, a building management system provider. These live
experiments had a variety of challenges in areas such as evaluation, learning
from offline data, and constraint satisfaction. Our paper describes these
challenges in the hope that awareness of them will benefit future applied RL
work. We also describe the way we adapted our RL system to deal with these
challenges, resulting in energy savings of approximately 9% and 13%
respectively at the two live experiment sites.
- Abstract(参考訳): 本稿では,DeepMindとGoogleが最近行った商用冷却システムの強化学習の技術的概要について述べる。
googleのデータセンターをより効率的に冷却することから始まる専門知識に基づいて、我々は最近、ビル管理システムプロバイダであるtrane technologiesと共同で、現実世界の2つの施設でライブ実験を行いました。
これらのライブ実験は、評価、オフラインデータからの学習、制約満足度など、さまざまな課題を抱えていた。
本稿では,これらの課題について,今後のRLの活用に期待する。
また、これらの課題に対処するために、我々のRLシステムを適応する方法についても述べ、その結果、2つの実験現場でそれぞれ約9%と13%の省エネを実現した。
関連論文リスト
- Real-World Data and Calibrated Simulation Suite for Offline Training of Reinforcement Learning Agents to Optimize Energy and Emission in Buildings for Environmental Sustainability [2.7624021966289605]
本稿では,実オフィスビルにおけるデバイスの実測から抽出した,オープンソースの対話型HVAC制御データセットについて紹介する。
使いやすくするために、私たちのRL環境は、すべてOpenAIのジム環境標準と互換性があります。
論文 参考訳(メタデータ) (2024-10-02T06:30:07Z) - Game-Theoretic Deep Reinforcement Learning to Minimize Carbon Emissions and Energy Costs for AI Inference Workloads in Geo-Distributed Data Centers [3.3379026542599934]
この研究は、地理分散データセンターにおけるAI推論ワークロードの分散を最適化するために、ゲーム理論(GT)と深層強化学習(DRL)を組み合わせたユニークなアプローチを導入する。
提案手法は,非協調型ゲーム理論の原理をDRLフレームワークに統合し,データセンターが作業負荷配分に関するインテリジェントな決定を行えるようにする。
論文 参考訳(メタデータ) (2024-04-01T20:13:28Z) - Low Emission Building Control with Zero-Shot Reinforcement Learning [70.70479436076238]
強化学習(RL)による制御は、建築エネルギー効率を著しく向上させることが示されている。
我々は、ゼロショットビルディング制御と呼ばれるパラダイムを優先せずに、排出削減ポリシーを得られることを示す。
論文 参考訳(メタデータ) (2022-08-12T17:13:25Z) - A Reinforcement Learning-based Volt-VAR Control Dataset and Testing
Environment [4.386026071380442]
本稿では,RLに基づくVVCアルゴリズム研究のための,サンプル効率,安全性,ロバストなオープンソースのデータセット群を紹介する。
データセットは、2つのコンポーネントで構成されている。1. IEEE-13、123、および8500バスのテストフィード用のGymライクなVVCテスト環境。
論文 参考訳(メタデータ) (2022-04-20T14:44:55Z) - Deep Reinforcement Learning Assisted Federated Learning Algorithm for
Data Management of IIoT [82.33080550378068]
産業用IoT(Industrial Internet of Things)の継続的な拡大により、IIoT機器は毎回大量のユーザデータを生成する。
IIoTの分野で、これらの時系列データを効率的かつ安全な方法で管理する方法は、依然として未解決の問題である。
本稿では,無線ネットワーク環境におけるIIoT機器データ管理におけるFL技術の適用について検討する。
論文 参考訳(メタデータ) (2022-02-03T07:12:36Z) - Scaling up Search Engine Audits: Practical Insights for Algorithm
Auditing [68.8204255655161]
異なる地域に数百の仮想エージェントを配置した8つの検索エンジンの実験を行った。
複数のデータ収集にまたがる研究インフラの性能を実証する。
仮想エージェントは,アルゴリズムの性能を長時間にわたって監視するための,有望な場所である,と結論付けている。
論文 参考訳(メタデータ) (2021-06-10T15:49:58Z) - Towards Optimal District Heating Temperature Control in China with Deep
Reinforcement Learning [0.0]
室内温度を予測するために,シミュレーションデータに基づくリカレントニューラルネットワークを構築した。
このモデルは、供給水温の最適制御のために、2つのDRLエージェントを専門家の指導なしに訓練するために使用される。
論文 参考訳(メタデータ) (2020-12-17T11:16:08Z) - Offline Reinforcement Learning Hands-On [60.36729294485601]
オフラインのRLは、大規模なデータセットを、環境とのオンラインインタラクションなしで強力な意思決定エンジンにすることを目的としている。
この研究は、実践者の視点からこれらの取り組みを反映することを目的としている。
オフラインRLの成功には,データの多様性と高リターン例が不可欠であることを実験的に検証する。
論文 参考訳(メタデータ) (2020-11-29T14:45:02Z) - AWAC: Accelerating Online Reinforcement Learning with Offline Datasets [84.94748183816547]
提案手法は,従来の実演データとオンライン体験を組み合わせることで,スキルの素早い学習を可能にする。
以上の結果から,事前データを組み込むことで,ロボット工学を実践的な時間スケールまで学習するのに要する時間を短縮できることが示唆された。
論文 参考訳(メタデータ) (2020-06-16T17:54:41Z) - Active Learning Approach to Optimization of Experimental Control [4.321539843681834]
実験制御を最適化する汎用機械学習方式を提案する。
このアプローチの主な課題は、実験から得られたラベル付きデータが豊富でないことである。
本手法は, 何百もの実験走行において, 最高の性能を達成できることを実証する。
論文 参考訳(メタデータ) (2020-03-26T09:07:56Z) - Towards the Systematic Reporting of the Energy and Carbon Footprints of
Machine Learning [68.37641996188133]
我々は、リアルタイムエネルギー消費と二酸化炭素排出量を追跡するための枠組みを導入する。
エネルギー効率のよい強化学習アルゴリズムのためのリーダーボードを作成します。
炭素排出量削減とエネルギー消費削減のための戦略を提案する。
論文 参考訳(メタデータ) (2020-01-31T05:12:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。