論文の概要: Improved Policy Optimization for Online Imitation Learning
- arxiv url: http://arxiv.org/abs/2208.00088v1
- Date: Fri, 29 Jul 2022 22:02:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:10:27.385400
- Title: Improved Policy Optimization for Online Imitation Learning
- Title(参考訳): オンライン模倣学習のための政策最適化の改善
- Authors: Jonathan Wilder Lavington, Sharan Vaswani, Mark Schmidt
- Abstract要約: オンライン模倣学習(OIL)では,環境との活発な相互作用を通じて専門家の行動を模倣する政策を見出すことが課題である。
- 参考スコア(独自算出の注目度): 17.450401609682544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider online imitation learning (OIL), where the task is to find a
policy that imitates the behavior of an expert via active interaction with the
environment. We aim to bridge the gap between the theory and practice of policy
optimization algorithms for OIL by analyzing one of the most popular OIL
algorithms, DAGGER. Specifically, if the class of policies is sufficiently
expressive to contain the expert policy, we prove that DAGGER achieves constant
regret. Unlike previous bounds that require the losses to be strongly-convex,
our result only requires the weaker assumption that the losses be
strongly-convex with respect to the policy's sufficient statistics (not its
parameterization). In order to ensure convergence for a wider class of policies
and losses, we augment DAGGER with an additional regularization term. In
particular, we propose a variant of Follow-the-Regularized-Leader (FTRL) and
its adaptive variant for OIL and develop a memory-efficient implementation,
which matches the memory requirements of FTL. Assuming that the loss functions
are smooth and convex with respect to the parameters of the policy, we also
prove that FTRL achieves constant regret for any sufficiently expressive policy
class, while retaining $O(\sqrt{T})$ regret in the worst-case. We demonstrate
the effectiveness of these algorithms with experiments on synthetic and
high-dimensional control tasks.
- Abstract(参考訳): オンライン模倣学習(OIL)では,環境との活発な相互作用を通じて専門家の行動を模倣する政策を見出すことが課題である。
我々は,最も人気のあるOILアルゴリズムであるDAGGERを分析し,OILのポリシー最適化アルゴリズムの理論と実践のギャップを埋めることを目的としている。
具体的には、政策のクラスが専門家の政策を包含するのに十分な表現力を持っている場合、DAGGERが絶え間なく後悔することを証明する。
損失が強凸となるような以前の境界とは異なり、我々の結果は政策の十分な統計量(パラメータ化ではない)に関して損失が強凸であるというより弱い仮定しか必要としない。
より広範な政策と損失の収束を確保するため、我々はDAGGERを追加の正規化項で強化する。
特に、FTLのメモリ要件に適合するメモリ効率の実装を、Follow-the-Regularized-Leader(FTRL)の変種とOILの適応型を提案する。
損失関数がポリシーのパラメータに関して滑らかで凸であると仮定すると、FTRLは最悪の場合において$O(\sqrt{T})$後悔を保ちながら、十分な表現力のある政策クラスに対して絶え間なく後悔する。
合成および高次元制御タスクにおける実験により,これらのアルゴリズムの有効性を示す。
関連論文リスト
- Oracle-Efficient Reinforcement Learning for Max Value Ensembles [7.404901768256101]
大または無限の状態空間における強化学習(RL)は、理論上、実験的に困難である。
この作業では、$textitmax-following Policy$と競合することを目指しています。
我々の主な成果は、構成ポリシーのみにアクセスすると、最大フォローポリシーと競合する効率的なアルゴリズムである。
論文 参考訳(メタデータ) (2024-05-27T01:08:23Z) - Learning Optimal Deterministic Policies with Stochastic Policy Gradients [62.81324245896716]
政策勾配法(PG法)は連続強化学習(RL法)問題に対処する手法として成功している。
一般的には、収束(ハイパー)政治は、決定論的バージョンをデプロイするためにのみ学習される。
本稿では,サンプルの複雑性とデプロイされた決定論的ポリシのパフォーマンスのトレードオフを最適化するために,学習に使用する探索レベルの調整方法を示す。
論文 参考訳(メタデータ) (2024-05-03T16:45:15Z) - Low-Switching Policy Gradient with Exploration via Online Sensitivity
Sampling [23.989009116398208]
一般非線形関数近似を用いた低スイッチングサンプリング効率ポリシ最適化アルゴリズム LPO を設計する。
提案アルゴリズムは,$widetildeO(fractextpoly(d)varepsilon3)$サンプルのみを用いて,$varepsilon$-optimal Policyを得る。
論文 参考訳(メタデータ) (2023-06-15T23:51:46Z) - Iteratively Refined Behavior Regularization for Offline Reinforcement
Learning [57.10922880400715]
本稿では,保守的政策反復に基づく行動規則化を大幅に強化する新しいアルゴリズムを提案する。
行動規則化に使用される基準ポリシーを反復的に洗練することにより、保守的な政策更新は徐々に改善される。
D4RLベンチマークの実験結果から,本手法は従来のタスクのベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-06-09T07:46:24Z) - Policy Gradient Algorithms Implicitly Optimize by Continuation [7.351769270728942]
我々は、政策段階的なアルゴリズムの探索は、目の前にある政策の回帰の継続であり、その回帰を最大化するよりも、政策は歴史に依存しているべきだと論じる。
論文 参考訳(メタデータ) (2023-05-11T14:50:20Z) - Policy learning "without" overlap: Pessimism and generalized empirical Bernstein's inequality [94.89246810243053]
本論文は,事前収集した観測値を利用して最適な個別化決定規則を学習するオフライン政策学習について検討する。
既存の政策学習法は、一様重なりの仮定、すなわち、全ての個々の特性に対する全ての作用を探索する正当性は、境界を低くしなければならない。
我々は,点推定の代わりに低信頼度境界(LCB)を最適化する新しいアルゴリズムであるPPLを提案する。
論文 参考訳(メタデータ) (2022-12-19T22:43:08Z) - Offline Reinforcement Learning with Closed-Form Policy Improvement
Operators [88.54210578912554]
行動制約付きポリシー最適化は、オフライン強化学習に対処するための成功パラダイムであることが示されている。
本稿では,閉形式政策改善演算子を提案する。
我々は、標準的なD4RLベンチマークにおいて、最先端アルゴリズムに対するそれらの効果を実証的に実証した。
論文 参考訳(メタデータ) (2022-11-29T06:29:26Z) - Policy Mirror Descent for Regularized Reinforcement Learning: A
Generalized Framework with Linear Convergence [60.20076757208645]
本稿では,正規化RLを解くためのGPMDアルゴリズムを提案する。
我々は,このアルゴリズムが次元自由な方法で,全範囲の学習率に線形に収束することを実証した。
論文 参考訳(メタデータ) (2021-05-24T02:21:34Z) - Provably Efficient Exploration in Policy Optimization [117.09887790160406]
本稿では,最適化アルゴリズム(OPPO)の最適変種を提案する。
OPPO は $tildeO(sqrtd2 H3 T )$ regret を達成する。
我々の知る限りでは、OPPOは、探索する最初の証明可能な効率的なポリシー最適化アルゴリズムである。
論文 参考訳(メタデータ) (2019-12-12T08:40:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。