論文の概要: Using Meta Reinforcement Learning to Bridge the Gap between Simulation
and Experiment in Energy Demand Response
- arxiv url: http://arxiv.org/abs/2104.14670v1
- Date: Thu, 29 Apr 2021 21:55:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 02:48:26.670962
- Title: Using Meta Reinforcement Learning to Bridge the Gap between Simulation
and Experiment in Energy Demand Response
- Title(参考訳): メタ強化学習を用いたエネルギー需要応答のシミュレーションと実験の間にギャップを埋める
- Authors: Doseok Jang, Lucas Spangher, Manan Khattar, Utkarsha Agwan, Costas
Spanos
- Abstract要約: シミュレーションタスクによる実験のウォームスタートにメタラーニングアーキテクチャを適用し,サンプル効率を向上させる。
同様の複雑性のステップアップを示す結果が,いまだに優れた学習と一致しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Our team is proposing to run a full-scale energy demand response experiment
in an office building. Although this is an exciting endeavor which will provide
value to the community, collecting training data for the reinforcement learning
agent is costly and will be limited. In this work, we apply a meta-learning
architecture to warm start the experiment with simulated tasks, to increase
sample efficiency. We present results that demonstrate a similar a step up in
complexity still corresponds with better learning.
- Abstract(参考訳): 私たちのチームは、オフィスビルで本格的なエネルギー需要対応実験を行うことを提案しています。
これはコミュニティに価値を提供するエキサイティングな取り組みですが、強化学習エージェントのトレーニングデータの収集にはコストがかかり、制限されます。
本研究では,シミュレーションタスクによる実験開始を温め,サンプル効率を向上させるメタラーニングアーキテクチャを適用した。
同様の複雑性のステップアップを示す結果が,いまだよい学習と一致しています。
関連論文リスト
- Reward Function Design for Crowd Simulation via Reinforcement Learning [12.449513548800466]
強化学習は仮想的な群集をシミュレートする大きな可能性を示しているが、報酬関数の設計は効率的かつ効率的な結果を達成するために重要である。
本研究では, 特定の報酬関数の妥当性を解析的特性に応じて理論的に把握し, 様々なシナリオを用いて実証的に評価する。
本研究は,新しい群集シミュレーション技術の発展に寄与し,人間のようなナビゲーションの幅広い研究に寄与する。
論文 参考訳(メタデータ) (2023-09-22T12:55:30Z) - Hindsight States: Blending Sim and Real Task Elements for Efficient
Reinforcement Learning [61.3506230781327]
ロボット工学では、第一原理から導かれた力学モデルに基づくシミュレーションに基づいて、トレーニングデータを生成する方法がある。
ここでは、力学の複雑さの不均衡を利用して、より標本効率のよい学習を行う。
提案手法をいくつかの課題に対して検証し,既存の近視アルゴリズムと組み合わせた場合の学習改善を実証する。
論文 参考訳(メタデータ) (2023-03-03T21:55:04Z) - Actively Learning Costly Reward Functions for Reinforcement Learning [56.34005280792013]
複雑な実世界の環境でエージェントを訓練することは、桁違いに高速であることを示す。
強化学習の手法を新しい領域に適用することにより、興味深く非自明な解を見つけることができることを示す。
論文 参考訳(メタデータ) (2022-11-23T19:17:20Z) - Benchopt: Reproducible, efficient and collaborative optimization
benchmarks [67.29240500171532]
Benchoptは、機械学習で最適化ベンチマークを自動化、再生、公開するためのフレームワークである。
Benchoptは実験を実行、共有、拡張するための既製のツールを提供することで、コミュニティのベンチマークを簡単にする。
論文 参考訳(メタデータ) (2022-06-27T16:19:24Z) - Learning Dense Reward with Temporal Variant Self-Supervision [5.131840233837565]
複雑な現実世界のロボットアプリケーションは、報酬として直接使用できる明示的で情報的な記述を欠いている。
従来、マルチモーダル観測から直接高密度報酬をアルゴリズムで抽出することが可能であった。
本稿では,より効率的で堅牢なサンプリングと学習手法を提案する。
論文 参考訳(メタデータ) (2022-05-20T20:30:57Z) - Sequential Bayesian experimental designs via reinforcement learning [0.0]
我々は,BEDを逐次的に構築するために,強化学習による逐次実験設計を提案する。
提案手法は,新たな実世界指向実験環境を提案することで,期待される情報獲得を最大化することを目的としている。
提案手法は,EIGやサンプリング効率などの指標において,既存の手法よりも優れていることを確認した。
論文 参考訳(メタデータ) (2022-02-14T04:29:04Z) - Sample Efficient Imitation Learning via Reward Function Trained in
Advance [2.66512000865131]
イミテーションラーニング(IL)は、実証から専門家の行動を模倣することを学ぶフレームワークである。
本稿では,逆強化学習の新たな手法を導入することで,サンプル効率の向上に尽力する。
論文 参考訳(メタデータ) (2021-11-23T08:06:09Z) - TRAIL: Near-Optimal Imitation Learning with Suboptimal Data [100.83688818427915]
オフラインデータセットを使用してファクタードトランジションモデルを学習するトレーニング目標を提案する。
我々の理論的分析は、学習された潜在行動空間が下流模倣学習のサンプル効率を高めることを示唆している。
実際に潜伏行動空間を学習するために、エネルギーベースの遷移モデルを学ぶアルゴリズムTRAIL(Transition-Reparametrized Actions for Imitation Learning)を提案する。
論文 参考訳(メタデータ) (2021-10-27T21:05:00Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - Offline-Online Reinforcement Learning for Energy Pricing in Office
Demand Response: Lowering Energy and Data Costs [0.0]
データコストとプログラム実装コストを最小限に抑えるために、オフライントレーニングをどのように活用できるかを示す。
エネルギー需要応答問題における効率的な価格設定のためのオフライン強化学習の有用性を実証する。
論文 参考訳(メタデータ) (2021-08-14T17:29:59Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。