論文の概要: Data-Driven Learning and Load Ensemble Control
- arxiv url: http://arxiv.org/abs/2004.09675v1
- Date: Mon, 20 Apr 2020 23:32:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 19:30:30.353341
- Title: Data-Driven Learning and Load Ensemble Control
- Title(参考訳): データ駆動学習と負荷アンサンブル制御
- Authors: Ali Hassan, Deepjyoti Deka, Michael Chertkov and Yury Dvorkin
- Abstract要約: 本研究の目的は、グリッドサポートサービスを提供するために、温度制御可能な負荷(TCL)など、分散された小規模のフレキシブルな負荷に取り組むことである。
このデータ駆動学習の効率性は, 住宅のテストベッド地区における暖房, 冷却, 換気ユニットのシミュレーションによって実証される。
- 参考スコア(独自算出の注目度): 1.647866856596524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Demand response (DR) programs aim to engage distributed small-scale flexible
loads, such as thermostatically controllable loads (TCLs), to provide various
grid support services. Linearly Solvable Markov Decision Process (LS-MDP), a
variant of the traditional MDP, is used to model aggregated TCLs. Then, a
model-free reinforcement learning technique called Z-learning is applied to
learn the value function and derive the optimal policy for the DR aggregator to
control TCLs. The learning process is robust against uncertainty that arises
from estimating the passive dynamics of the aggregated TCLs. The efficiency of
this data-driven learning is demonstrated through simulations on Heating,
Cooling & Ventilation (HVAC) units in a testbed neighborhood of residential
houses.
- Abstract(参考訳): 需要応答(DR)プログラムは、温度制御可能な負荷(TCL)など、分散した小規模のフレキシブル負荷に取り組み、様々なグリッドサポートサービスを提供することを目的としている。
従来のMDPの変種であるLS-MDP(Linearly Solvable Markov Decision Process)は、集約されたTCLをモデル化するために使用される。
次に、Z-learningと呼ばれるモデルフリー強化学習手法を適用し、値関数を学習し、DRアグリゲータがTCLを制御するための最適なポリシーを導出する。
学習プロセスは、集約されたtclの受動ダイナミクスの推定から生じる不確実性に対して頑健である。
このデータ駆動学習の効率性は、住宅の試験ベッド地区における暖房・冷却・換気(HVAC)ユニットのシミュレーションによって実証される。
関連論文リスト
- Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Self-Expansion of Pre-trained Models with Mixture of Adapters for Continual Learning [21.19820308728003]
継続学習(CL)は、学習した知識を壊滅的に忘れることなく、定常的でないデータストリームから継続的に知識を蓄積することを目的としている。
現在の PTM ベースの CL 法は,学習可能なアダプタの追加や,凍結した PTM へのプロンプトの追加によって,下流タスクへの効果的な継続的適応を行う。
PTM CL における安定性・塑性バランスの制御を強化する新しい手法である Modularized Adaptation (SEMA) を用いた事前学習モデルの自己拡張を提案する。
論文 参考訳(メタデータ) (2024-03-27T17:59:21Z) - An LLM-Based Digital Twin for Optimizing Human-in-the Loop Systems [13.388869442538399]
本稿では,ショッピングモールにおける多様な集団の行動と熱的嗜好を模倣するために,大規模言語モデル(LLM)を用いたケーススタディを提案する。
集約された熱嗜好は、エージェント・イン・ザ・ループに基づく強化学習アルゴリズムであるAitL-RLに統合される。
以上の結果から,LLMは大規模オープンスペース内での複雑な人口移動をシミュレートできることがわかった。
論文 参考訳(メタデータ) (2024-03-25T14:32:28Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Deep Reinforcement Learning for Computational Fluid Dynamics on HPC
Systems [17.10464381844892]
強化学習(Reinforcement Learning, RL)は、動的システムの文脈における制御戦略の考案に非常に適している。
近年の研究では、RL強化計算流体力学(CFD)の解法が最先端技術を超えることが示唆されている。
我々は、機械学習とHPCシステム上の最新のCFDソルバ間のギャップを埋めるスケーラブルなRLフレームワークとしてRelexiを提示する。
論文 参考訳(メタデータ) (2022-05-13T08:21:18Z) - Model-based Deep Learning Receiver Design for Rate-Splitting Multiple
Access [65.21117658030235]
本研究では,モデルベース深層学習(MBDL)に基づく実用的なRSMA受信機の設計を提案する。
MBDL受信機は、符号なしシンボル誤り率(SER)、リンクレベルシミュレーション(LLS)によるスループット性能、平均トレーニングオーバーヘッドの観点から評価される。
その結果,MBDLはCSIRが不完全なSIC受信機よりも優れていた。
論文 参考訳(メタデータ) (2022-05-02T12:23:55Z) - Transferring Reinforcement Learning for DC-DC Buck Converter Control via
Duty Ratio Mapping: From Simulation to Implementation [0.0]
本稿では,DC-DCコンバータ用のデリケートに設計されたデューティ比マッピング(DRM)を用いた転送手法を提案する。
モデルフリー深部強化学習(DRL)コントローラの実装を可能にするために,詳細なsim-to-realプロセスを提案する。
論文 参考訳(メタデータ) (2021-10-20T11:08:17Z) - Efficient Transformers in Reinforcement Learning using Actor-Learner
Distillation [91.05073136215886]
「Actor-Learner Distillation」は、大容量学習者モデルから小容量学習者モデルへ学習の進捗を移す。
Actor-Learner Distillation を用いて,トランスフォーマー学習モデルの明確なサンプル効率向上を再現する,いくつかの挑戦的なメモリ環境を実証する。
論文 参考訳(メタデータ) (2021-04-04T17:56:34Z) - Reinforcement Learning for Thermostatically Controlled Loads Control
using Modelica and Python [0.0]
このプロジェクトは、電力系統制御に強化学習(RL)を適用する機会を調査し、評価することを目的としている。
The proof of concept (PoC) was developed to voltage control of thermostatically controlled loads (TCLs) for power consumption using Modelica-based pipeline。
本稿では,状態空間の離散化を含むQ-ラーニングパラメータが制御性能に与える影響について述べる。
論文 参考訳(メタデータ) (2020-05-09T13:35:49Z) - Reinforcement Learning for Safety-Critical Control under Model
Uncertainty, using Control Lyapunov Functions and Control Barrier Functions [96.63967125746747]
強化学習フレームワークは、CBFおよびCLF制約に存在するモデル不確実性を学ぶ。
RL-CBF-CLF-QPは、安全制約におけるモデル不確実性の問題に対処する。
論文 参考訳(メタデータ) (2020-04-16T10:51:33Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。