論文の概要: Sharper Model-free Reinforcement Learning for Average-reward Markov
Decision Processes
- arxiv url: http://arxiv.org/abs/2306.16394v1
- Date: Wed, 28 Jun 2023 17:43:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 13:16:00.236176
- Title: Sharper Model-free Reinforcement Learning for Average-reward Markov
Decision Processes
- Title(参考訳): 平均回帰マルコフ決定過程に対するシャーパモデルフリー強化学習
- Authors: Zihan Zhang and Qiaomin Xie
- Abstract要約: 我々はマルコフ決定過程(MDPs)のための証明可能なモデルフリー強化学習(RL)アルゴリズムを開発した。
シミュレータ設定では,$widetildeO left(fracSAmathrmsp(h*)epsilon2+fracS2Amathrmsp(h*)epsilon2right)$サンプルを用いて,$epsilon$-optimal Policyを求める。
- 参考スコア(独自算出の注目度): 21.77276136591518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop several provably efficient model-free reinforcement learning (RL)
algorithms for infinite-horizon average-reward Markov Decision Processes
(MDPs). We consider both online setting and the setting with access to a
simulator. In the online setting, we propose model-free RL algorithms based on
reference-advantage decomposition. Our algorithm achieves
$\widetilde{O}(S^5A^2\mathrm{sp}(h^*)\sqrt{T})$ regret after $T$ steps, where
$S\times A$ is the size of state-action space, and
$\mathrm{sp}(h^*)$ the span of the optimal bias function. Our results are the
first to achieve optimal dependence in $T$ for weakly communicating MDPs.
In the simulator setting, we propose a model-free RL algorithm that finds an
$\epsilon$-optimal policy using $\widetilde{O}
\left(\frac{SA\mathrm{sp}^2(h^*)}{\epsilon^2}+\frac{S^2A\mathrm{sp}(h^*)}{\epsilon}
\right)$ samples, whereas the minimax lower bound is
$\Omega\left(\frac{SA\mathrm{sp}(h^*)}{\epsilon^2}\right)$.
Our results are based on two new techniques that are unique in the
average-reward setting: 1) better discounted approximation by value-difference
estimation; 2) efficient construction of confidence region for the optimal bias
function with space complexity $O(SA)$.
- Abstract(参考訳): 我々は,無限水平平均逆マルコフ決定過程(MDPs)のモデルフリー強化学習(RL)アルゴリズムを開発した。
オンライン設定とシミュレータへのアクセスによる設定の両方について検討する。
本稿では,参照アドバンテージ分解に基づくモデルフリーRLアルゴリズムを提案する。
このアルゴリズムは、$t$ステップ後に$\widetilde{o}(s^5a^2\mathrm{sp}(h^*)\sqrt{t})$を成し、$s\times a$は状態-作用空間のサイズであり、$\mathrm{sp}(h^*)$は最適なバイアス関数の幅である。
我々の結果は、弱通信型MDPに対するT$の最適依存性を最初に達成したものである。
シミュレータ設定では,$\widetilde{O} \left(\frac{SA\mathrm{sp}^2(h^*)}{\epsilon^2}+\frac{S^2A\mathrm{sp}(h^*)}{\epsilon} \right)$サンプルを用いて,$\Omega\left(\frac{SA\mathrm{sp}(h^*)}{\epsilon^2}\right)$を使用するモデルフリーなRLアルゴリズムを提案する。
この結果は,平均回帰設定でユニークな2つの新しい手法に基づいている。
1) 値差推定によるより良い割引近似
2) 空間複雑性を$O(SA)$とする最適バイアス関数に対する信頼領域の効率的な構築。
関連論文リスト
- A Proximal Modified Quasi-Newton Method for Nonsmooth Regularized Optimization [0.7373617024876725]
Lipschitz-of-$nabla f$
$mathcalS_k|p$。
$mathcalS_k|p$。
$nabla f$.
$mathcalS_k|p$。
論文 参考訳(メタデータ) (2024-09-28T18:16:32Z) - Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - Near-Optimal Bounds for Learning Gaussian Halfspaces with Random
Classification Noise [50.64137465792738]
この問題に対する効率的なSQアルゴリズムは、少なくとも$Omega(d1/2/(maxp, epsilon)2)$. のサンプル複雑性を必要とする。
我々の下限は、この1/epsilon$に対する二次的依存は、効率的なアルゴリズムに固有のものであることを示唆している。
論文 参考訳(メタデータ) (2023-07-13T18:59:28Z) - An Oblivious Stochastic Composite Optimization Algorithm for Eigenvalue
Optimization Problems [76.2042837251496]
相補的な合成条件に基づく2つの難解なミラー降下アルゴリズムを導入する。
注目すべきは、どちらのアルゴリズムも、目的関数のリプシッツ定数や滑らかさに関する事前の知識なしで機能する。
本稿では,大規模半確定プログラム上での手法の効率性とロバスト性を示す。
論文 参考訳(メタデータ) (2023-06-30T08:34:29Z) - Best Policy Identification in Linear MDPs [70.57916977441262]
縮退した線形マルコフ+デルタ決定における最適同定問題について, 生成モデルに基づく固定信頼度設定における検討を行った。
複雑な非最適化プログラムの解としての下位境界は、そのようなアルゴリズムを考案する出発点として用いられる。
論文 参考訳(メタデータ) (2022-08-11T04:12:50Z) - Sample-Efficient Reinforcement Learning for Linearly-Parameterized MDPs
with a Generative Model [3.749193647980305]
本稿では,一連の状態対応機能を有するマルコフ決定プロセス(MDP)について考察する。
モデルに基づくアプローチ(resp.$Q-learning)が、高い確率で$varepsilon$-Optimalポリシーを確実に学習することを示す。
論文 参考訳(メタデータ) (2021-05-28T17:49:39Z) - Nearly Minimax Optimal Reinforcement Learning for Linear Mixture Markov
Decision Processes [91.38793800392108]
本稿では,マルコフ決定過程(MDP)の遷移確率核が線形混合モデルである線形関数近似による強化学習について検討する。
上記の線形混合 MDP に対して$textUCRL-VTR+$ という線形関数近似を用いた計算効率の良い新しいアルゴリズムを提案する。
我々の知る限り、これらは線形関数近似を持つRLのための計算効率が良く、ほぼ最小のアルゴリズムである。
論文 参考訳(メタデータ) (2020-12-15T18:56:46Z) - Model-Free Reinforcement Learning: from Clipped Pseudo-Regret to Sample
Complexity [59.34067736545355]
S$状態、$A$アクション、割引係数$gamma in (0,1)$、近似しきい値$epsilon > 0$の MDP が与えられた場合、$epsilon$-Optimal Policy を学ぶためのモデルなしアルゴリズムを提供する。
十分小さな$epsilon$の場合、サンプルの複雑さで改良されたアルゴリズムを示す。
論文 参考訳(メタデータ) (2020-06-06T13:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。