論文の概要: Towards an Understanding of Default Policies in Multitask Policy
Optimization
- arxiv url: http://arxiv.org/abs/2111.02994v1
- Date: Thu, 4 Nov 2021 16:45:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 15:26:43.174140
- Title: Towards an Understanding of Default Policies in Multitask Policy
Optimization
- Title(参考訳): マルチタスク政策最適化におけるデフォルトポリシーの理解に向けて
- Authors: Ted Moskovitz, Michael Arbel, Jack Parker-Holder, Aldo Pacchiano
- Abstract要約: 近年の強化学習の成功の多くは、正規化ポリシー最適化(RPO)アルゴリズムによって推進されている。
このギャップを埋める第一歩として、デフォルトポリシーの品質と最適化の効果を正式にリンクします。
次に,高い性能保証を有するマルチタスク学習のための原理的RPOアルゴリズムを導出する。
- 参考スコア(独自算出の注目度): 29.806071693039655
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Much of the recent success of deep reinforcement learning has been driven by
regularized policy optimization (RPO) algorithms, with strong performance
across multiple domains. In this family of methods, agents are trained to
maximize cumulative reward while penalizing deviation in behavior from some
reference, or default policy. In addition to empirical success, there is a
strong theoretical foundation for understanding RPO methods applied to single
tasks, with connections to natural gradient, trust region, and variational
approaches. However, there is limited formal understanding of desirable
properties for default policies in the multitask setting, an increasingly
important domain as the field shifts towards training more generally capable
agents. Here, we take a first step towards filling this gap by formally linking
the quality of the default policy to its effect on optimization. Using these
results, we then derive a principled RPO algorithm for multitask learning with
strong performance guarantees.
- Abstract(参考訳): 近年の深層強化学習の成功の多くは、複数の領域にわたる強力なパフォーマンスを持つ正規化ポリシ最適化(RPO)アルゴリズムによって推進されている。
この方法では、エージェントは累積報酬を最大にするために訓練され、ある参照やデフォルトポリシーから行動の偏差を罰する。
実証的な成功に加えて、自然勾配、信頼領域、変分的アプローチに結びつく単一のタスクに適用されるRPO法を理解するための強力な理論的基盤が存在する。
しかしながら、フィールドがより一般的な有能なエージェントのトレーニングにシフトするにつれて、ますます重要なドメインであるマルチタスク設定において、デフォルトポリシーの望ましいプロパティに関する形式的な理解は限られている。
ここでは、デフォルトポリシーの品質と最適化の効果を正式にリンクすることで、このギャップを埋める第一歩を踏み出します。
これらの結果を用いて,性能保証の強いマルチタスク学習のためのrpoアルゴリズムを導出する。
関連論文リスト
- Clipped-Objective Policy Gradients for Pessimistic Policy Optimization [3.2996723916635275]
政策勾配法は、政策出力の有界変化を通じて単調な改善を図っている。
本研究では,PPOの性能を連続的な作用空間に適用した場合,目的の単純変化によって一貫した改善が期待できることを示す。
PPO と PPO の両目標に比較して, COPG の目標が平均的な「悲観的」であること, 2) この悲観主義は探索を促進させることを示した。
論文 参考訳(メタデータ) (2023-11-10T03:02:49Z) - Local Optimization Achieves Global Optimality in Multi-Agent
Reinforcement Learning [139.53668999720605]
本稿では,各エージェントのローカルポリシーをバニラPPOと同様に更新するマルチエージェントPPOアルゴリズムを提案する。
マルコフゲームにおける標準正則条件と問題依存量により、我々のアルゴリズムはサブリニアレートで大域的最適ポリシーに収束することを示す。
論文 参考訳(メタデータ) (2023-05-08T16:20:03Z) - POLTER: Policy Trajectory Ensemble Regularization for Unsupervised
Reinforcement Learning [30.834631947104498]
本稿では,任意のURLアルゴリズムに適用可能な事前学習を正規化するためのPOLTERを提案する。
教師なし強化学習ベンチマーク(URLB)におけるPOLTERの評価を行った。
本稿では,データと知識に基づく多種多様なURLアルゴリズムの性能を,平均19%,ベストケースで最大40%向上させることで,このアプローチの汎用性を実証する。
論文 参考訳(メタデータ) (2022-05-23T14:42:38Z) - Semi-On-Policy Training for Sample Efficient Multi-Agent Policy
Gradients [51.749831824106046]
本稿では,オンライン政策グラデーション手法のサンプル非効率性に効果的かつ効率的な手法として,セミ・オン・ポリティ(SOP)トレーニングを導入する。
提案手法は,様々なSMACタスクにおいて,最先端の値ベース手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-04-27T19:37:01Z) - Risk-Sensitive Deep RL: Variance-Constrained Actor-Critic Provably Finds
Globally Optimal Policy [95.98698822755227]
本研究は,リスクに敏感な深層強化学習を,分散リスク基準による平均報酬条件下で研究する試みである。
本稿では,ポリシー,ラグランジュ乗算器,フェンシェル双対変数を反復的かつ効率的に更新するアクタ批判アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-28T05:02:26Z) - Invariant Policy Optimization: Towards Stronger Generalization in
Reinforcement Learning [5.476958867922322]
強化学習の基本的な課題は、訓練中に経験した操作領域を超えて一般化するポリシーを学ぶことである。
本稿では,この原則を実装した新しい学習アルゴリズムである不変ポリシー最適化(IPO)を提案し,トレーニング中に不変ポリシーを学習する。
論文 参考訳(メタデータ) (2020-06-01T17:28:19Z) - Implementation Matters in Deep Policy Gradients: A Case Study on PPO and
TRPO [90.90009491366273]
本稿では,2つの一般的なアルゴリズムのケーススタディにより,ディープポリシー勾配アルゴリズムにおけるアルゴリズムの進歩のルーツについて検討する。
具体的には,「コードレベルの最適化」の結果について検討する。
以上の結果から, (a) TRPOに対するPPOの累積報酬のほとんどを担っていることが示され, (b) RL メソッドの動作方法が根本的に変化していることが示唆された。
論文 参考訳(メタデータ) (2020-05-25T16:24:59Z) - Stable Policy Optimization via Off-Policy Divergence Regularization [50.98542111236381]
信頼地域政策最適化(TRPO)とPPO(Pximal Policy Optimization)は、深層強化学習(RL)において最も成功した政策勾配アプローチの一つである。
本稿では, 連続的な政策によって引き起こされる割引状態-行動訪問分布を, 近接項で抑制し, 政策改善を安定化させる新しいアルゴリズムを提案する。
提案手法は, ベンチマーク高次元制御タスクの安定性と最終的な性能向上に有効である。
論文 参考訳(メタデータ) (2020-03-09T13:05:47Z) - BRPO: Batch Residual Policy Optimization [79.53696635382592]
バッチ強化学習では、学習したポリシーが行動(データ生成)ポリシーに近いように制約されることがよくある。
本稿では,学習方針の逸脱が国家の行動に依存した残留政策を提案する。
我々は,ポリシーと許容偏差の両方を学習し,政策性能の低い境界を共同で最大化する新しいRL法BRPOを導出する。
論文 参考訳(メタデータ) (2020-02-08T01:59:33Z) - Population-Guided Parallel Policy Search for Reinforcement Learning [17.360163137926]
都市外強化学習(RL)の性能向上を図るために,新たな人口誘導型並列学習手法を提案する。
提案手法では,複数の同一学習者が独自の値関数とポリシーを共用し,共通体験再生バッファを共有し,最良のポリシー情報のガイダンスと協調して適切なポリシーを探索する。
論文 参考訳(メタデータ) (2020-01-09T10:13:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。