論文の概要: Offline-Online Reinforcement Learning for Energy Pricing in Office
Demand Response: Lowering Energy and Data Costs
- arxiv url: http://arxiv.org/abs/2108.06594v1
- Date: Sat, 14 Aug 2021 17:29:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 07:03:26.558957
- Title: Offline-Online Reinforcement Learning for Energy Pricing in Office
Demand Response: Lowering Energy and Data Costs
- Title(参考訳): オフィス需要応答におけるエネルギー価格のオフライン強化学習:エネルギーとデータコストの削減
- Authors: Doseok Jang, Lucas Spangher, Manan Khattar, Utkarsha Agwan,
Selvaprabuh Nadarajah, Costas Spanos
- Abstract要約: データコストとプログラム実装コストを最小限に抑えるために、オフライントレーニングをどのように活用できるかを示す。
エネルギー需要応答問題における効率的な価格設定のためのオフライン強化学習の有用性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Our team is proposing to run a full-scale energy demand response experiment
in an office building. Although this is an exciting endeavor which will provide
value to the community, collecting training data for the reinforcement learning
agent is costly and will be limited. In this work, we examine how offline
training can be leveraged to minimize data costs (accelerate convergence) and
program implementation costs. We present two approaches to doing so:
pretraining our model to warm start the experiment with simulated tasks, and
using a planning model trained to simulate the real world's rewards to the
agent. We present results that demonstrate the utility of offline reinforcement
learning to efficient price-setting in the energy demand response problem.
- Abstract(参考訳): 私たちのチームは、オフィスビルで本格的なエネルギー需要対応実験を行うことを提案しています。
これはコミュニティに価値を提供するエキサイティングな取り組みですが、強化学習エージェントのトレーニングデータの収集にはコストがかかり、制限されます。
本研究では,データコスト(収束の加速)とプログラム実装コストを最小化するためにオフライントレーニングをどのように活用するかを検討する。
シミュレーションタスクで実験を開始するようにモデルを事前トレーニングし、エージェントに対する実世界の報酬をシミュレートするためにトレーニングされた計画モデルを使用することです。
エネルギー需要応答問題における効率的な価格設定のためのオフライン強化学習の有用性を示す。
関連論文リスト
- Small Dataset, Big Gains: Enhancing Reinforcement Learning by Offline
Pre-Training with Model Based Augmentation [59.899714450049494]
オフラインの事前トレーニングは、準最適ポリシーを生成し、オンライン強化学習のパフォーマンスを低下させる可能性がある。
本稿では,オフライン強化学習による事前学習のメリットを最大化し,有効となるために必要なデータの規模を削減するためのモデルベースデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2023-12-15T14:49:41Z) - How Can We Train Deep Learning Models Across Clouds and Continents? An Experimental Study [57.97785297481162]
代表的なCV, NLP, ASRモデルに対して, 異なるゾーン, 大陸, 雲におけるトレーニングの費用とスループットについて検討した。
スポット価格を活用することで、複数の安価なインスタンスでモデルをトレーニングし、より集中的かつ強力なハードウェアと、競争力のある価格でオンデマンドのクラウド製品の両方を台無しにする、新たなコスト効率の方法が実現されることを示す。
論文 参考訳(メタデータ) (2023-06-05T18:17:37Z) - Sustainable AIGC Workload Scheduling of Geo-Distributed Data Centers: A
Multi-Agent Reinforcement Learning Approach [48.18355658448509]
生成的人工知能の最近の進歩は、機械学習トレーニングの需要が急増し、エネルギー消費の大幅な増加によるコスト負担と環境問題を引き起こしている。
地理的に分散したクラウドデータセンタ間でのトレーニングジョブのスケジューリングは、安価で低炭素エネルギーのコンピューティング能力の使用を最適化する機会を浮き彫りにする。
本研究では,実生活におけるワークロードパターン,エネルギー価格,炭素強度を組み込んだクラウドシステムと対話することで,マルチエージェント強化学習とアクタクリティカルな手法に基づく最適協調スケジューリング戦略の学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-17T02:12:30Z) - Actively Learning Costly Reward Functions for Reinforcement Learning [56.34005280792013]
複雑な実世界の環境でエージェントを訓練することは、桁違いに高速であることを示す。
強化学習の手法を新しい領域に適用することにより、興味深く非自明な解を見つけることができることを示す。
論文 参考訳(メタデータ) (2022-11-23T19:17:20Z) - Optimized cost function for demand response coordination of multiple EV
charging stations using reinforcement learning [6.37470346908743]
我々は、複数の充電ステーションを同時に調整するマルコフ決定プロセス(MDP)に基づいて、RLに関する以前の研究に基づいて構築する。
我々は、基本的に、学習した制御ポリシーに対して、柔軟性を提供しない充電需要を常に満たすよう強制するコスト関数の改善を提案する。
提案したバッチRLのQ-iteration実装を,実世界のデータを用いて,オリジナル(コスト)のQ-iteration実装と厳密に比較する。
論文 参考訳(メタデータ) (2022-03-03T11:22:27Z) - Using Meta Reinforcement Learning to Bridge the Gap between Simulation
and Experiment in Energy Demand Response [0.0]
シミュレーションタスクによる実験のウォームスタートにメタラーニングアーキテクチャを適用し,サンプル効率を向上させる。
同様の複雑性のステップアップを示す結果が,いまだに優れた学習と一致しています。
論文 参考訳(メタデータ) (2021-04-29T21:55:04Z) - AWAC: Accelerating Online Reinforcement Learning with Offline Datasets [84.94748183816547]
提案手法は,従来の実演データとオンライン体験を組み合わせることで,スキルの素早い学習を可能にする。
以上の結果から,事前データを組み込むことで,ロボット工学を実践的な時間スケールまで学習するのに要する時間を短縮できることが示唆された。
論文 参考訳(メタデータ) (2020-06-16T17:54:41Z) - Intelligent Residential Energy Management System using Deep
Reinforcement Learning [5.532477732693001]
本稿では,仮想エージェントが人間のようにタスクを学習する要求応答のための深層強化学習(DRL)モデルを提案する。
本手法は,負荷ピーク低減のための混合整数線形計画法(MILP)の精度を向上した。
論文 参考訳(メタデータ) (2020-05-28T19:51:22Z) - Demand-Side Scheduling Based on Multi-Agent Deep Actor-Critic Learning
for Smart Grids [56.35173057183362]
家庭用家電をネットでスケジュールできるスマートメーターが各家庭に備わっている需要側エネルギー管理の問題点を考察する。
目標は、リアルタイムの料金体系の下で全体のコストを最小化することです。
マルコフゲームとしてスマートグリッド環境の定式化を提案する。
論文 参考訳(メタデータ) (2020-05-05T07:32:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。