論文の概要: Data-Driven Learning and Load Ensemble Control
- arxiv url: http://arxiv.org/abs/2004.09675v1
- Date: Mon, 20 Apr 2020 23:32:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 19:30:30.353341
- Title: Data-Driven Learning and Load Ensemble Control
- Title(参考訳): データ駆動学習と負荷アンサンブル制御
- Authors: Ali Hassan, Deepjyoti Deka, Michael Chertkov and Yury Dvorkin
- Abstract要約: 本研究の目的は、グリッドサポートサービスを提供するために、温度制御可能な負荷(TCL)など、分散された小規模のフレキシブルな負荷に取り組むことである。
このデータ駆動学習の効率性は, 住宅のテストベッド地区における暖房, 冷却, 換気ユニットのシミュレーションによって実証される。
- 参考スコア(独自算出の注目度): 1.647866856596524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Demand response (DR) programs aim to engage distributed small-scale flexible
loads, such as thermostatically controllable loads (TCLs), to provide various
grid support services. Linearly Solvable Markov Decision Process (LS-MDP), a
variant of the traditional MDP, is used to model aggregated TCLs. Then, a
model-free reinforcement learning technique called Z-learning is applied to
learn the value function and derive the optimal policy for the DR aggregator to
control TCLs. The learning process is robust against uncertainty that arises
from estimating the passive dynamics of the aggregated TCLs. The efficiency of
this data-driven learning is demonstrated through simulations on Heating,
Cooling & Ventilation (HVAC) units in a testbed neighborhood of residential
houses.
- Abstract(参考訳): 需要応答(DR)プログラムは、温度制御可能な負荷(TCL)など、分散した小規模のフレキシブル負荷に取り組み、様々なグリッドサポートサービスを提供することを目的としている。
従来のMDPの変種であるLS-MDP(Linearly Solvable Markov Decision Process)は、集約されたTCLをモデル化するために使用される。
次に、Z-learningと呼ばれるモデルフリー強化学習手法を適用し、値関数を学習し、DRアグリゲータがTCLを制御するための最適なポリシーを導出する。
学習プロセスは、集約されたtclの受動ダイナミクスの推定から生じる不確実性に対して頑健である。
このデータ駆動学習の効率性は、住宅の試験ベッド地区における暖房・冷却・換気(HVAC)ユニットのシミュレーションによって実証される。
関連論文リスト
- Learning a model is paramount for sample efficiency in reinforcement
learning control of PDEs [5.488334211013093]
RLエージェントの訓練と並行して動作モデルを学ぶことで,実システムからサンプリングしたデータ量を大幅に削減できることを示す。
また、RLトレーニングのバイアスを避けるために、モデルを反復的に更新することが重要であることも示している。
論文 参考訳(メタデータ) (2023-02-14T16:14:39Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Deep Reinforcement Learning for Computational Fluid Dynamics on HPC
Systems [17.10464381844892]
強化学習(Reinforcement Learning, RL)は、動的システムの文脈における制御戦略の考案に非常に適している。
近年の研究では、RL強化計算流体力学(CFD)の解法が最先端技術を超えることが示唆されている。
我々は、機械学習とHPCシステム上の最新のCFDソルバ間のギャップを埋めるスケーラブルなRLフレームワークとしてRelexiを提示する。
論文 参考訳(メタデータ) (2022-05-13T08:21:18Z) - Model-based Deep Learning Receiver Design for Rate-Splitting Multiple
Access [65.21117658030235]
本研究では,モデルベース深層学習(MBDL)に基づく実用的なRSMA受信機の設計を提案する。
MBDL受信機は、符号なしシンボル誤り率(SER)、リンクレベルシミュレーション(LLS)によるスループット性能、平均トレーニングオーバーヘッドの観点から評価される。
その結果,MBDLはCSIRが不完全なSIC受信機よりも優れていた。
論文 参考訳(メタデータ) (2022-05-02T12:23:55Z) - Transferring Reinforcement Learning for DC-DC Buck Converter Control via
Duty Ratio Mapping: From Simulation to Implementation [0.0]
本稿では,DC-DCコンバータ用のデリケートに設計されたデューティ比マッピング(DRM)を用いた転送手法を提案する。
モデルフリー深部強化学習(DRL)コントローラの実装を可能にするために,詳細なsim-to-realプロセスを提案する。
論文 参考訳(メタデータ) (2021-10-20T11:08:17Z) - Evaluating model-based planning and planner amortization for continuous
control [79.49319308600228]
我々は、モデル予測制御(MPC)と学習モデルとモデルフリーポリシー学習を組み合わせたハイブリッドアプローチを採っている。
モデルフリーエージェントは高いDoF制御問題においても強いベースラインであることがわかった。
モデルに基づくプランナを,パフォーマンスを損なうことなく,計画が損なわれるようなポリシーに置き換えることが可能であることを示す。
論文 参考訳(メタデータ) (2021-10-07T12:00:40Z) - Efficient Transformers in Reinforcement Learning using Actor-Learner
Distillation [91.05073136215886]
「Actor-Learner Distillation」は、大容量学習者モデルから小容量学習者モデルへ学習の進捗を移す。
Actor-Learner Distillation を用いて,トランスフォーマー学習モデルの明確なサンプル効率向上を再現する,いくつかの挑戦的なメモリ環境を実証する。
論文 参考訳(メタデータ) (2021-04-04T17:56:34Z) - Online Learning and Distributed Control for Residential Demand Response [16.61679791774638]
本稿では,インセンティブに基づく住宅需要応答(DR)における空調負荷の自動制御手法について検討する。
DRイベントにおけるAC制御問題を,室内熱力学と顧客のオプトアウト状態を統合した多周期遷移最適化として定式化する。
本稿では、顧客の振る舞いを学習し、リアルタイムのAC制御スキームを作成するためのオンラインDR制御アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-11T03:52:30Z) - Reinforcement Learning for Thermostatically Controlled Loads Control
using Modelica and Python [0.0]
このプロジェクトは、電力系統制御に強化学習(RL)を適用する機会を調査し、評価することを目的としている。
The proof of concept (PoC) was developed to voltage control of thermostatically controlled loads (TCLs) for power consumption using Modelica-based pipeline。
本稿では,状態空間の離散化を含むQ-ラーニングパラメータが制御性能に与える影響について述べる。
論文 参考訳(メタデータ) (2020-05-09T13:35:49Z) - Reinforcement Learning for Safety-Critical Control under Model
Uncertainty, using Control Lyapunov Functions and Control Barrier Functions [96.63967125746747]
強化学習フレームワークは、CBFおよびCLF制約に存在するモデル不確実性を学ぶ。
RL-CBF-CLF-QPは、安全制約におけるモデル不確実性の問題に対処する。
論文 参考訳(メタデータ) (2020-04-16T10:51:33Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。