論文の概要: Average-Reward Off-Policy Policy Evaluation with Function Approximation
- arxiv url: http://arxiv.org/abs/2101.02808v1
- Date: Fri, 8 Jan 2021 00:43:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 05:12:34.090426
- Title: Average-Reward Off-Policy Policy Evaluation with Function Approximation
- Title(参考訳): 関数近似を用いた対外政策平均評価
- Authors: Shangtong Zhang, Yi Wan, Richard S. Sutton, Shimon Whiteson
- Abstract要約: 平均報酬MDPの関数近似によるオフポリシ政策評価を検討する。
ブートストラップは必要であり、オフポリシ学習とFAと一緒に、致命的なトライアドをもたらす。
そこで本研究では,勾配型tdアルゴリズムの成功を再現する2つの新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 66.67075551933438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider off-policy policy evaluation with function approximation (FA) in
average-reward MDPs, where the goal is to estimate both the reward rate and the
differential value function. For this problem, bootstrapping is necessary and,
along with off-policy learning and FA, results in the deadly triad (Sutton &
Barto, 2018). To address the deadly triad, we propose two novel algorithms,
reproducing the celebrated success of Gradient TD algorithms in the
average-reward setting. In terms of estimating the differential value function,
the algorithms are the first convergent off-policy linear function
approximation algorithms. In terms of estimating the reward rate, the
algorithms are the first convergent off-policy linear function approximation
algorithms that do not require estimating the density ratio. We demonstrate
empirically the advantage of the proposed algorithms, as well as their
nonlinear variants, over a competitive density-ratio-based approach, in a
simple domain as well as challenging robot simulation tasks.
- Abstract(参考訳): 我々は,平均回帰mdpにおける関数近似(fa)を用いたオフポリシー政策評価について検討し,報酬率と差分値関数の両方を推定することを目的としている。
この問題に対して、ブートストラップは必要であり、非政治的な学習とFAとともに、致命的な三位一体をもたらす(Sutton & Barto, 2018)。
致命的な3つの問題に対処するため,我々は,勾配型tdアルゴリズムの成功を再現する2つの新しいアルゴリズムを提案する。
微分値関数を推定する観点では、アルゴリズムは最初の収束オフポリシー線形関数近似アルゴリズムである。
報酬率を推定する観点では、アルゴリズムは密度比を推定する必要がない最初の収束オフポリシー線形関数近似アルゴリズムである。
提案するアルゴリズムと非線形変種を,単純なドメインとロボットシミュレーション課題に挑戦しながら,競合的密度比に基づくアプローチよりも実証的に優位に立証する。
関連論文リスト
- Deterministic Policy Gradient Primal-Dual Methods for Continuous-Space Constrained MDPs [82.34567890576423]
我々は,非漸近収束を伴う最適決定主義政策を求めるための決定主義的政策勾配原始双対法を開発した。
D-PGPDの一次-双対反復は、最適正則化原始-双対にサブ線形速度で収束することが証明された。
我々の知る限り、これは連続空間制約型MDPに対する決定論的ポリシー探索法を提案する最初の研究であると思われる。
論文 参考訳(メタデータ) (2024-08-19T14:11:04Z) - Last-Iterate Convergent Policy Gradient Primal-Dual Methods for
Constrained MDPs [107.28031292946774]
無限水平割引マルコフ決定過程(拘束型MDP)の最適ポリシの計算問題について検討する。
我々は, 最適制約付きポリシーに反復的に対応し, 非漸近収束性を持つ2つの単一スケールポリシーに基づく原始双対アルゴリズムを開発した。
我々の知る限り、この研究は制約付きMDPにおける単一時間スケールアルゴリズムの非漸近的な最後の収束結果となる。
論文 参考訳(メタデータ) (2023-06-20T17:27:31Z) - High-probability sample complexities for policy evaluation with linear function approximation [88.87036653258977]
本研究では,2つの広く利用されている政策評価アルゴリズムに対して,最適線形係数の予め定義された推定誤差を保証するために必要なサンプル複素量について検討する。
高確率収束保証に縛られた最初のサンプル複雑性を確立し、許容レベルへの最適依存を実現する。
論文 参考訳(メタデータ) (2023-05-30T12:58:39Z) - Reinforcement Learning with Unbiased Policy Evaluation and Linear
Function Approximation [11.345796608258434]
マルコフ決定プロセスを制御するためのシミュレーションベースのポリシーイテレーションの変種に対して,性能保証を提供する。
第一のアルゴリズムは最小二乗アプローチを伴い、各反復において、特徴ベクトルに関連する新しい重みの集合が少なくとも二乗によって得られる。
第2のアルゴリズムは、最小二乗解への勾配降下を数ステップ行う2段階の近似アルゴリズムを含む。
論文 参考訳(メタデータ) (2022-10-13T20:16:19Z) - Maximum-Likelihood Inverse Reinforcement Learning with Finite-Time
Guarantees [56.848265937921354]
逆強化学習(IRL)は報酬関数と関連する最適ポリシーを回復することを目的としている。
IRLの多くのアルゴリズムは本質的にネスト構造を持つ。
我々は、報酬推定精度を損なわないIRLのための新しいシングルループアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-04T17:13:45Z) - The Role of Lookahead and Approximate Policy Evaluation in Policy
Iteration with Linear Value Function Approximation [14.528756508275622]
線形関数近似を用いて値関数を表現する場合、最小限のルックアヘッドとマルチステップリターンが必要であることを示す。
そして、この条件が満たされると、そのような近似ポリシーを用いて得られたポリシーの有限時間性能を特徴付ける。
論文 参考訳(メタデータ) (2021-09-28T01:20:08Z) - Smoothed functional-based gradient algorithms for off-policy reinforcement learning: A non-asymptotic viewpoint [8.087699764574788]
政治外の強化学習コンテキストにおける制御問題の解法として,2つのポリシー勾配アルゴリズムを提案する。
どちらのアルゴリズムも、スムーズな関数的勾配推定スキームを取り入れている。
論文 参考訳(メタデータ) (2021-01-06T17:06:42Z) - Approximate Midpoint Policy Iteration for Linear Quadratic Control [1.0312968200748118]
モデルベースおよびモデルフリー設定の線形2次最適制御問題を解くために,中間点ポリシー反復アルゴリズムを提案する。
モデルに基づく設定では,2次収束と線形収束を両立させる標準方針反復法やポリシーアルゴリズムよりも優れている立方収束を実現する。
論文 参考訳(メタデータ) (2020-11-28T20:22:10Z) - Variance-Reduced Off-Policy Memory-Efficient Policy Search [61.23789485979057]
政治政策の最適化は強化学習において難しい問題である。
オフポリシーアルゴリズムはメモリ効率が高く、オフポリシーサンプルから学ぶことができる。
論文 参考訳(メタデータ) (2020-09-14T16:22:46Z) - Queueing Network Controls via Deep Reinforcement Learning [0.0]
待ち行列ネットワークのためのポリシ最適化アルゴリズムを開発した。
このアルゴリズムは、文学における最先端よりも優れた制御ポリシーを一貫して生成する。
PPOアルゴリズムの成功の鍵は、相対値関数を推定するために3つの分散還元技術を使用することである。
論文 参考訳(メタデータ) (2020-07-31T01:02:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。