論文の概要: Model-Augmented Actor-Critic: Backpropagating through Paths
- arxiv url: http://arxiv.org/abs/2005.08068v1
- Date: Sat, 16 May 2020 19:18:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 12:39:13.530887
- Title: Model-Augmented Actor-Critic: Backpropagating through Paths
- Title(参考訳): Model-Augmented Actor-Critic: Backpropagating through Paths
- Authors: Ignasi Clavera, Violet Fu, Pieter Abbeel
- Abstract要約: 現在のモデルに基づく強化学習アプローチでは、単に学習されたブラックボックスシミュレータとしてモデルを使用する。
その微分可能性を利用してモデルをより効果的に活用する方法を示す。
- 参考スコア(独自算出の注目度): 81.86992776864729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current model-based reinforcement learning approaches use the model simply as
a learned black-box simulator to augment the data for policy optimization or
value function learning. In this paper, we show how to make more effective use
of the model by exploiting its differentiability. We construct a policy
optimization algorithm that uses the pathwise derivative of the learned model
and policy across future timesteps. Instabilities of learning across many
timesteps are prevented by using a terminal value function, learning the policy
in an actor-critic fashion. Furthermore, we present a derivation on the
monotonic improvement of our objective in terms of the gradient error in the
model and value function. We show that our approach (i) is consistently more
sample efficient than existing state-of-the-art model-based algorithms, (ii)
matches the asymptotic performance of model-free algorithms, and (iii) scales
to long horizons, a regime where typically past model-based approaches have
struggled.
- Abstract(参考訳): 現在のモデルに基づく強化学習アプローチでは、単に学習ブラックボックスシミュレータとしてモデルを使用し、ポリシー最適化や価値関数学習のためのデータを強化している。
本稿では,その微分可能性を利用してモデルをより効果的に活用する方法を示す。
我々は,学習したモデルとポリシーのパスワイズ微分を用いたポリシー最適化アルゴリズムを構築した。
終端値関数を用いて、アクタクリティカルな方法でポリシーを学習することにより、多くの時間ステップにわたる学習の不安定さを防止する。
さらに, モデルと値関数の勾配誤差の観点から, 目的の単調な改善について導出する。
私たちのアプローチは
(i)既存の最先端モデルベースアルゴリズムよりも一貫してサンプル効率が高い。
(ii)モデルフリーアルゴリズムの漸近性能に一致し,
(iii) 一般的に過去のモデルベースアプローチが苦闘している体制であるロングホライズンズにスケールする。
関連論文リスト
- Model-based Policy Optimization using Symbolic World Model [46.42871544295734]
ロボット工学における学習に基づく制御手法の適用は、大きな課題を呈している。
1つは、モデルなし強化学習アルゴリズムがサンプル効率の低い観測データを使用することである。
シンボリック回帰によって生成されるシンボリック表現による遷移ダイナミクスの近似を提案する。
論文 参考訳(メタデータ) (2024-07-18T13:49:21Z) - The Virtues of Laziness in Model-based RL: A Unified Objective and
Algorithms [37.025378882978714]
モデルベース強化学習(MBRL)における2つの基本的な課題に対処する新しいアプローチを提案する。
我々の「怠慢」な手法は、学習された方針と専門家の政策の間のパフォーマンスの違いを捉えるために、モデルにおけるアドバンテージによるパフォーマンスの差異という、新しい統合された目的を生かしている。
提案する目的を最適化する2つの非回帰アルゴリズムを提案し,その統計的および計算的ゲインを実証する。
論文 参考訳(メタデータ) (2023-03-01T17:42:26Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Model-based Reinforcement Learning with Multi-step Plan Value Estimation [4.158979444110977]
モデルベースRLのマルチステップ動作を置き換えるためのマルチステップ計画を導入する。
新しいモデルベース強化学習アルゴリズムMPPVEは、学習モデルのより良い利用方法を示し、最先端のモデルベースRLアプローチよりも優れたサンプル効率を実現する。
論文 参考訳(メタデータ) (2022-09-12T18:22:11Z) - Control-Oriented Model-Based Reinforcement Learning with Implicit
Differentiation [11.219641045667055]
そこで本研究では,暗黙の微分を用いたモデル学習において,期待値を直接最適化するエンド・ツー・エンドのアプローチを提案する。
モデル不特定化方式におけるアプローチの利点を、確率に基づく手法と比較した理論的および実証的な証拠を提供する。
論文 参考訳(メタデータ) (2021-06-06T23:15:49Z) - COMBO: Conservative Offline Model-Based Policy Optimization [120.55713363569845]
ディープニューラルネットワークのような複雑なモデルによる不確実性推定は困難であり、信頼性が低い。
我々は,サポート外状態動作の値関数を正規化するモデルベースオフラインRLアルゴリズムCOMBOを開発した。
従来のオフラインモデルフリーメソッドやモデルベースメソッドと比べて、comboは一貫してパフォーマンスが良いことが分かりました。
論文 参考訳(メタデータ) (2021-02-16T18:50:32Z) - Model-based Meta Reinforcement Learning using Graph Structured Surrogate
Models [40.08137765886609]
グラフ構造化サーロゲートモデル (GSSM) と呼ばれるモデルが, 環境ダイナミクス予測における最先端の手法を上回っていることを示した。
当社のアプローチでは,テスト時間ポリシの勾配最適化を回避して,デプロイメント中の高速実行を実現しつつ,高いリターンを得ることができる。
論文 参考訳(メタデータ) (2021-02-16T17:21:55Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。