論文の概要: Online Sub-Sampling for Reinforcement Learning with General Function
Approximation
- arxiv url: http://arxiv.org/abs/2106.07203v2
- Date: Tue, 18 Apr 2023 12:57:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 19:29:50.149270
- Title: Online Sub-Sampling for Reinforcement Learning with General Function
Approximation
- Title(参考訳): 一般関数近似を用いた強化学習のためのオンラインサブサンプリング
- Authors: Dingwen Kong, Ruslan Salakhutdinov, Ruosong Wang, Lin F. Yang
- Abstract要約: 本稿では,RLアルゴリズムによって収集されたデータポイントの情報取得量を測定する,効率的なオンラインサブサンプリングフレームワークを確立する。
複雑性バウンド関数クラスを持つ値ベースのメソッドの場合、$proptooperatornamepolylog(K)$ timesに対してのみポリシーを更新する必要がある。
少なくとも$Omega(K)$倍のポリシーを更新する既存のアプローチとは対照的に、当社のアプローチはポリシーの解決における最適化コールの数を劇的に削減します。
- 参考スコア(独自算出の注目度): 111.01990889581243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the existing works for reinforcement learning (RL) with general
function approximation (FA) focus on understanding the statistical complexity
or regret bounds. However, the computation complexity of such approaches is far
from being understood -- indeed, a simple optimization problem over the
function class might be as well intractable. In this paper, we tackle this
problem by establishing an efficient online sub-sampling framework that
measures the information gain of data points collected by an RL algorithm and
uses the measurement to guide exploration. For a value-based method with
complexity-bounded function class, we show that the policy only needs to be
updated for $\propto\operatorname{poly}\log(K)$ times for running the RL
algorithm for $K$ episodes while still achieving a small near-optimal regret
bound. In contrast to existing approaches that update the policy for at least
$\Omega(K)$ times, our approach drastically reduces the number of optimization
calls in solving for a policy. When applied to settings in
\cite{wang2020reinforcement} or \cite{jin2021bellman}, we improve the overall
time complexity by at least a factor of $K$. Finally, we show the generality of
our online sub-sampling technique by applying it to the reward-free RL setting
and multi-agent RL setting.
- Abstract(参考訳): 一般関数近似(FA)を用いた強化学習(RL)の既存の研究の多くは、統計的複雑性や後悔の境界を理解することに集中している。
しかし、そのような手法の計算の複雑さは理解できない ― 実際、関数クラスに対する単純な最適化問題は、同様に難解であるかもしれない。
本稿では、RLアルゴリズムによって収集されたデータポイントの情報取得を計測し、探索をガイドする効率的なオンラインサブサンプリングフレームワークを確立することにより、この問題に対処する。
複雑性にバウンドな関数クラスを持つ値ベースのメソッドの場合、そのポリシーは$\propto\operatorname{poly}\log(k)$ で更新される必要がある。
少なくとも$\Omega(K)$のポリシーを更新する既存のアプローチとは対照的に、当社のアプローチはポリシーの解決において最適化コールの数を劇的に削減します。
\cite{wang2020reinforcement} や \cite{jin2021bellman} の設定に適用すると、全体の時間の複雑さを少なくとも $k$ で改善する。
最後に、報酬のないRL設定とマルチエージェントRL設定に適用することで、オンラインサブサンプリング手法の汎用性を示す。
関連論文リスト
- Near-Optimal Regret in Linear MDPs with Aggregate Bandit Feedback [38.61232011566285]
本稿では,最近提案されたRLモデルとアグリゲート帯域フィードバック(RL-ABF)について検討する。
本稿では,ABFを線形関数近似に拡張し,ほぼ最適後悔保証を伴う2つの効率的なアルゴリズムを開発する。
論文 参考訳(メタデータ) (2024-05-13T10:51:01Z) - A Nearly Optimal and Low-Switching Algorithm for Reinforcement Learning
with General Function Approximation [66.26739783789387]
我々は、強化学習のための新しいアルゴリズム、MQL-UCBを用いたモノトニックQ-Learningを提案する。
MQL-UCBは、$tildeO(dsqrtHK)$の最小限の後悔を実現する。
本研究は,非線形関数近似を用いたサンプル効率およびデプロイメント効率のよいQ-ラーニングの設計に重点を置いている。
論文 参考訳(メタデータ) (2023-11-26T08:31:57Z) - Low-Switching Policy Gradient with Exploration via Online Sensitivity
Sampling [23.989009116398208]
一般非線形関数近似を用いた低スイッチングサンプリング効率ポリシ最適化アルゴリズム LPO を設計する。
提案アルゴリズムは,$widetildeO(fractextpoly(d)varepsilon3)$サンプルのみを用いて,$varepsilon$-optimal Policyを得る。
論文 参考訳(メタデータ) (2023-06-15T23:51:46Z) - Provably Efficient Reinforcement Learning via Surprise Bound [66.15308700413814]
本稿では,一般値関数近似を用いた効率の良い強化学習アルゴリズムを提案する。
本アルゴリズムは, 線形設定と疎高次元線形設定の両方に適用した場合に, 合理的な後悔境界を達成できる。
論文 参考訳(メタデータ) (2023-02-22T20:21:25Z) - Near-Optimal Deployment Efficiency in Reward-Free Reinforcement Learning
with Linear Function Approximation [16.871660060209674]
本研究では, 線形関数近似を用いた展開効率向上強化学習(RL)の課題を, 遠近自由探索条件下で検討する。
我々は,最大$widetildeO(fracd2H5epsilon2)$ trajectoriesを$H$デプロイメント内で収集し,$epsilon$-Optimal Policyを任意の(おそらくはデータに依存した)報酬関数の選択に対して識別するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-03T03:48:26Z) - Human-in-the-loop: Provably Efficient Preference-based Reinforcement
Learning with General Function Approximation [107.54516740713969]
本研究は,RL(Human-in-the-loop reinforcement learning)を軌道的嗜好で検討する。
各ステップで数値的な報酬を受ける代わりに、エージェントは人間の監督者から軌道上のペアよりも優先される。
一般関数近似を用いたPbRLの楽観的モデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-23T09:03:24Z) - Reward-Free RL is No Harder Than Reward-Aware RL in Linear Markov
Decision Processes [61.11090361892306]
Reward-free reinforcement learning (RL) は、エージェントが探索中に報酬関数にアクセスできないような環境を考える。
この分離は線形MDPの設定には存在しないことを示す。
我々は$d$次元線形 MDP における報酬のない RL に対する計算効率の良いアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-01-26T22:09:59Z) - Reinforcement Learning with General Value Function Approximation:
Provably Efficient Approach via Bounded Eluder Dimension [124.7752517531109]
一般値関数近似を用いた効率の良い強化学習アルゴリズムを確立する。
我々のアルゴリズムは、$d$が複雑性測度である場合、$widetildeO(mathrmpoly(dH)sqrtT)$の後悔の限界を達成することを示す。
我々の理論は線形値関数近似によるRLの最近の進歩を一般化し、環境モデルに対する明示的な仮定をしない。
論文 参考訳(メタデータ) (2020-05-21T17:36:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。