論文の概要: Efficient exploration via epistemic-risk-seeking policy optimization
- arxiv url: http://arxiv.org/abs/2302.09339v1
- Date: Sat, 18 Feb 2023 14:13:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 19:03:11.651816
- Title: Efficient exploration via epistemic-risk-seeking policy optimization
- Title(参考訳): epistemic-risk-seeking policy optimizationによる効率的な探索
- Authors: Brendan O'Donoghue
- Abstract要約: 深層強化学習(RL)における探索は依然として重要な課題である
本稿では,最適化された場合,効率よく探索できる政策が成立する,新しい,微分可能な楽観的目標を提案する。
その結果、他の効率的な探査技術よりも優れた性能が得られた。
- 参考スコア(独自算出の注目度): 8.867416300893577
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Exploration remains a key challenge in deep reinforcement learning (RL).
Optimism in the face of uncertainty is a well-known heuristic with theoretical
guarantees in the tabular setting, but how best to translate the principle to
deep reinforcement learning, which involves online stochastic gradients and
deep network function approximators, is not fully understood. In this paper we
propose a new, differentiable optimistic objective that when optimized yields a
policy that provably explores efficiently, with guarantees even under function
approximation. Our new objective is a zero-sum two-player game derived from
endowing the agent with an epistemic-risk-seeking utility function, which
converts uncertainty into value and encourages the agent to explore uncertain
states. We show that the solution to this game minimizes an upper bound on the
regret, with the `players' each attempting to minimize one component of a
particular regret decomposition. We derive a new model-free algorithm which we
call `epistemic-risk-seeking actor-critic', which is simply an application of
simultaneous stochastic gradient ascent-descent to the game. We conclude with
some results showing good performance of a deep RL agent using the technique on
the challenging `DeepSea' environment, showing significant performance
improvements even over other efficient exploration techniques, as well as
results on the Atari benchmark.
- Abstract(参考訳): 深層強化学習(RL)における探索は依然として重要な課題である。
不確実性に直面した最適性は、表面設定における理論的保証を持つよく知られたヒューリスティックであるが、オンライン確率勾配とディープネットワーク関数近似器を含むディープ強化学習にその原理をどう翻訳するかは、完全には理解されていない。
本稿では,最適化された場合,関数近似の下でも有効に探索できるポリシが得られた,新たな楽観的目標を提案する。
我々の新しい目的は、不確実性を価値に変換し、不確実な状態を探索することを奨励する、疫学リスク探索ユーティリティ関数をエージェントに付与したゼロサム2プレーヤゲームである。
このゲームに対する解法は後悔の上限の上限を最小化し、各プレイヤーは特定の後悔の分解の1つの要素を最小化しようとする。
本手法は,ゲームに対する確率勾配の漸近化を同時に適用したモデルフリーなアルゴリズムを考案した。
実験の結果から,「深海」環境における手法を用いた深いrlエージェントの性能が向上し,他の効率的な探索手法よりも優れた性能改善が得られ,atariベンチマークの結果も得られた。
関連論文リスト
- Complexity-Aware Deep Symbolic Regression with Robust Risk-Seeking Policy Gradients [20.941908494137806]
本稿では,データ駆動型数式発見の堅牢性と解釈可能性を高めるための,新しい記号回帰手法を提案する。
DSRは最先端の手法であるDSRの成功にもかかわらず、リカレントニューラルネットワーク上に構築されており、純粋にデータ適合性によってガイドされている。
学習性能を向上させるために,トランスフォーマーとブロードスファーストサーチを併用した。
論文 参考訳(メタデータ) (2024-06-10T19:29:10Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Entropy Augmented Reinforcement Learning [0.0]
我々は,最適下から脱出する能力を探求し,強化するために,移動型マルコフ決定プロセス(MDP)を提案する。
実験では,MuJoCoベンチマークタスクにおけるTRPOとPPOの強化実験を行い,エージェントがより高い報酬領域に向けてハートアップされていることを示す。
論文 参考訳(メタデータ) (2022-08-19T13:09:32Z) - Efficient Neural Network Analysis with Sum-of-Infeasibilities [64.31536828511021]
凸最適化における総和係数法に着想を得て,広範な分岐関数を持つネットワーク上での検証クエリを解析するための新しい手法を提案する。
標準ケース分析に基づく完全探索手順の拡張は、各検索状態で実行される凸手順をDeepSoIに置き換えることによって達成できる。
論文 参考訳(メタデータ) (2022-03-19T15:05:09Z) - On Reward-Free RL with Kernel and Neural Function Approximations:
Single-Agent MDP and Markov Game [140.19656665344917]
エージェントが事前に特定された報酬関数を使わずに環境を徹底的に探索することを目的とした報酬のないRL問題について検討する。
関数近似の文脈でこの問題に取り組み、強力な関数近似器を活用する。
我々は、カーネルとニューラルファンクション近似器を用いた、証明可能な効率の良い報酬なしRLアルゴリズムを確立した。
論文 参考訳(メタデータ) (2021-10-19T07:26:33Z) - Policy Gradient Bayesian Robust Optimization for Imitation Learning [49.881386773269746]
我々は、期待される性能とリスクのバランスをとるために、新しいポリシー勾配スタイルのロバスト最適化手法PG-BROILを導出する。
その結果,PG-BROILはリスクニュートラルからリスク・アバースまでの行動のファミリを創出できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-11T16:49:15Z) - Risk-Sensitive Deep RL: Variance-Constrained Actor-Critic Provably Finds
Globally Optimal Policy [95.98698822755227]
本研究は,リスクに敏感な深層強化学習を,分散リスク基準による平均報酬条件下で研究する試みである。
本稿では,ポリシー,ラグランジュ乗算器,フェンシェル双対変数を反復的かつ効率的に更新するアクタ批判アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-28T05:02:26Z) - Bayesian Robust Optimization for Imitation Learning [34.40385583372232]
逆強化学習は、パラメータ化された報酬関数を学習することにより、新しい状態への一般化を可能にする。
既存のIRLに基づく安全な模倣学習アプローチは、maxminフレームワークを使用してこの不確実性に対処する。
BROILは、リターン最大化とリスク最小化の動作を補間する自然な方法を提供する。
論文 参考訳(メタデータ) (2020-07-24T01:52:11Z) - Reparameterized Variational Divergence Minimization for Stable Imitation [57.06909373038396]
確率的発散の選択における変動が、より高性能なILOアルゴリズムをもたらす可能性について検討する。
本稿では,提案する$f$-divergence最小化フレームワークの課題を軽減するために,逆模倣学習のための再パラメータ化手法を提案する。
経験的に、我々の設計選択は、ベースラインアプローチより優れ、低次元連続制御タスクにおける専門家のパフォーマンスとより密に適合するIOOアルゴリズムを許容することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:04:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。