論文の概要: Keep Doing What Worked: Behavioral Modelling Priors for Offline
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2002.08396v3
- Date: Wed, 17 Jun 2020 10:12:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 13:45:03.296942
- Title: Keep Doing What Worked: Behavioral Modelling Priors for Offline
Reinforcement Learning
- Title(参考訳): 機能し続ける - オフライン強化学習のための行動モデリング優先事項
- Authors: Noah Y. Siegel, Jost Tobias Springenberg, Felix Berkenkamp, Abbas
Abdolmaleki, Michael Neunert, Thomas Lampe, Roland Hafner, Nicolas Heess,
Martin Riedmiller
- Abstract要約: オフポリシー強化学習アルゴリズムは、環境相互作用の固定されたデータセットのみが利用できる設定で適用可能であることを約束する。
標準的なオフポリシーアルゴリズムは、継続的制御のためにバッチ設定で失敗する。
- 参考スコア(独自算出の注目度): 25.099754758455415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Off-policy reinforcement learning algorithms promise to be applicable in
settings where only a fixed data-set (batch) of environment interactions is
available and no new experience can be acquired. This property makes these
algorithms appealing for real world problems such as robot control. In
practice, however, standard off-policy algorithms fail in the batch setting for
continuous control. In this paper, we propose a simple solution to this
problem. It admits the use of data generated by arbitrary behavior policies and
uses a learned prior -- the advantage-weighted behavior model (ABM) -- to bias
the RL policy towards actions that have previously been executed and are likely
to be successful on the new task. Our method can be seen as an extension of
recent work on batch-RL that enables stable learning from conflicting
data-sources. We find improvements on competitive baselines in a variety of RL
tasks -- including standard continuous control benchmarks and multi-task
learning for simulated and real-world robots.
- Abstract(参考訳): オフポリシ強化学習アルゴリズムは、環境インタラクションの固定データセット(batch)のみが利用可能で、新たなエクスペリエンスが取得できない設定でも適用可能だ。
この性質により、これらのアルゴリズムはロボット制御のような現実世界の問題にアピールする。
しかし、実際には、標準的なオフポリシーアルゴリズムは継続的制御のためにバッチ設定で失敗する。
本稿では,この問題に対する簡単な解法を提案する。
任意の行動ポリシーによって生成されたデータの使用を認め、学習前の -- 有利な行動モデル(ABM) -- を使用して、以前実行され、新しいタスクで成功する可能性が高いアクションに対してRLポリシーを偏見する。
我々の手法は、競合するデータソースから安定した学習を可能にするバッチ-RLに関する最近の研究の拡張と見なすことができる。
シミュレーションと実世界のロボットのための標準の継続的制御ベンチマークやマルチタスク学習など、さまざまなRLタスクにおける競争ベースラインの改善が見られます。
関連論文リスト
- Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Iteratively Refined Behavior Regularization for Offline Reinforcement
Learning [57.10922880400715]
本稿では,保守的政策反復に基づく行動規則化を大幅に強化する新しいアルゴリズムを提案する。
行動規則化に使用される基準ポリシーを反復的に洗練することにより、保守的な政策更新は徐々に改善される。
D4RLベンチマークの実験結果から,本手法は従来のタスクのベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-06-09T07:46:24Z) - Jump-Start Reinforcement Learning [68.82380421479675]
本稿では、オフラインデータやデモ、あるいは既存のポリシーを使ってRLポリシーを初期化するメタアルゴリズムを提案する。
特に,タスク解決に2つのポリシーを利用するアルゴリズムであるJump-Start Reinforcement Learning (JSRL)を提案する。
実験により、JSRLは既存の模倣と強化学習アルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:25:22Z) - A Workflow for Offline Model-Free Robotic Reinforcement Learning [117.07743713715291]
オフライン強化学習(RL)は、オンラインインタラクションを伴わずに、事前の経験のみを活用することによって、学習制御ポリシを可能にする。
本研究では,教師付き学習問題に対して,比較的よく理解されたオフラインRLと類似した実践的ワークフローを開発する。
オンラインチューニングを伴わない効果的なポリシー作成におけるこのワークフローの有効性を実証する。
論文 参考訳(メタデータ) (2021-09-22T16:03:29Z) - Text Generation with Efficient (Soft) Q-Learning [91.47743595382758]
強化学習(RL)は、任意のタスクメトリクスを報酬としてプラグインすることで、より柔軟なソリューションを提供する。
ソフトQ-ラーニングの観点からテキスト生成のための新しいRL式を導入する。
雑音/負の例から学習し、敵攻撃、即時生成など、幅広いタスクにアプローチを適用する。
論文 参考訳(メタデータ) (2021-06-14T18:48:40Z) - Off-Policy Meta-Reinforcement Learning Based on Feature Embedding Spaces [14.029933823101084]
学習と不確実性評価(ELUE)を埋め込んだ新しいオフポリシーメタRL法を提案する。
ELUEは、埋め込み空間と信念条件ポリシーとQ関数に関する信念モデルを学びます。
ELUEは,メタRLベンチマーク実験により,最先端のメタRL法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-01-06T05:51:38Z) - Overcoming Model Bias for Robust Offline Deep Reinforcement Learning [3.1325640909772403]
MOOSEは、ポリシーをデータのサポート内に保持することで、低モデルバイアスを保証するアルゴリズムである。
我々はMOOSEと産業ベンチマークのBRAC, BEAR, BCQ, および MuJoCo の連続制御タスクを比較した。
論文 参考訳(メタデータ) (2020-08-12T19:08:55Z) - MOPO: Model-based Offline Policy Optimization [183.6449600580806]
オフライン強化学習(英語: offline reinforcement learning, RL)とは、以前に収集された大量のデータから完全に学習ポリシーを学習する問題を指す。
既存のモデルベースRLアルゴリズムは,すでにオフライン設定において大きな利益を上げていることを示す。
本稿では,既存のモデルに基づくRL法を,力学の不確実性によって人為的に罰せられる報酬で適用することを提案する。
論文 参考訳(メタデータ) (2020-05-27T08:46:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。