論文の概要: Adaptive Experience Selection for Policy Gradient
- arxiv url: http://arxiv.org/abs/2002.06946v1
- Date: Mon, 17 Feb 2020 13:16:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 12:38:05.232079
- Title: Adaptive Experience Selection for Policy Gradient
- Title(参考訳): 政策勾配に対する適応的経験選択
- Authors: Saad Mohamad and Giovanni Montana
- Abstract要約: 経験的再生は、サンプル効率を改善するために一般的に使用されるアプローチである。
過去の軌跡を用いた勾配推定器は、通常、高いばらつきを持つ。
統一サンプリングや優先経験リプレイのような経験リプレイのための既存のサンプリング戦略は、勾配推定のばらつきを明示的に制御しようとするものではない。
本稿では,オンライン学習アルゴリズムである適応的経験選択(AES)を提案し,この分散を明示的に最小化する経験サンプリング分布を適応的に学習する。
- 参考スコア(独自算出の注目度): 8.37609145576126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Policy gradient reinforcement learning (RL) algorithms have achieved
impressive performance in challenging learning tasks such as continuous
control, but suffer from high sample complexity. Experience replay is a
commonly used approach to improve sample efficiency, but gradient estimators
using past trajectories typically have high variance. Existing sampling
strategies for experience replay like uniform sampling or prioritised
experience replay do not explicitly try to control the variance of the gradient
estimates. In this paper, we propose an online learning algorithm, adaptive
experience selection (AES), to adaptively learn an experience sampling
distribution that explicitly minimises this variance. Using a regret
minimisation approach, AES iteratively updates the experience sampling
distribution to match the performance of a competitor distribution assumed to
have optimal variance. Sample non-stationarity is addressed by proposing a
dynamic (i.e. time changing) competitor distribution for which a closed-form
solution is proposed. We demonstrate that AES is a low-regret algorithm with
reasonable sample complexity. Empirically, AES has been implemented for deep
deterministic policy gradient and soft actor critic algorithms, and tested on 8
continuous control tasks from the OpenAI Gym library. Ours results show that
AES leads to significantly improved performance compared to currently available
experience sampling strategies for policy gradient.
- Abstract(参考訳): ポリシー勾配強化学習 (RL) アルゴリズムは, 連続制御などの学習課題において, 高いサンプル複雑性に悩まされている。
経験的リプレイは標本効率を改善するために一般的に用いられる手法であるが、過去の軌道を用いた勾配推定器は一般的に高いばらつきを持つ。
均一サンプリングや優先順位付き経験リプレイのような経験リプレイのための既存のサンプリング戦略は、勾配推定のばらつきを明示的に制御しようとしない。
本稿では,この分散を明示的に最小化する経験サンプリング分布を適応的に学習するオンライン学習アルゴリズムadaptive experience selection (aes)を提案する。
後悔の最小化アプローチを用いて、AESは最適分散と仮定される競合分布の性能に一致するように、経験サンプリング分布を反復的に更新する。
サンプル非定常性は、閉形式解が提案される動的(時間変化)競合分布を提案することで解決される。
AESは適切なサンプルの複雑さを持つ低回帰アルゴリズムであることを示す。
実験的に、AESは決定論的ポリシー勾配とソフトアクター批判アルゴリズムのために実装され、OpenAI Gymライブラリから8つの連続制御タスクでテストされている。
以上の結果から,AESは,現在利用可能な政策勾配のサンプリング方法と比較して,性能が大幅に向上することが示された。
関連論文リスト
- Adaptive teachers for amortized samplers [76.88721198565861]
償却推論(英: Amortized inference)とは、ニューラルネットワークなどのパラメトリックモデルをトレーニングし、正確なサンプリングが可能な所定の非正規化密度で分布を近似するタスクである。
オフ・ポリティクスのRLトレーニングは多様でハイ・リワードな候補の発見を促進するが、既存の手法は依然として効率的な探索の課題に直面している。
そこで本研究では,高次領域の優先順位付けにより,初等補正標本作成者(学生)の指導を指導する適応学習分布(教師)を提案する。
論文 参考訳(メタデータ) (2024-10-02T11:33:13Z) - Policy Gradient with Active Importance Sampling [55.112959067035916]
政策勾配法(PG法)はISの利点を大いに生かし、以前に収集したサンプルを効果的に再利用することができる。
しかし、ISは歴史的サンプルを再重み付けするための受動的ツールとしてRLに採用されている。
我々は、政策勾配のばらつきを減らすために、サンプルを収集する最良の行動ポリシーを模索する。
論文 参考訳(メタデータ) (2024-05-09T09:08:09Z) - Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - MEET: A Monte Carlo Exploration-Exploitation Trade-off for Buffer
Sampling [2.501153467354696]
経験リプレイバッファのための最先端サンプリング戦略は強化学習エージェントの性能を向上させる。
Q値推定に不確実性は含まない。
本稿では,探索・探索トレードオフを利用した新しいサンプリング戦略を提案する。
論文 参考訳(メタデータ) (2022-10-24T18:55:41Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - Sampling Through the Lens of Sequential Decision Making [9.101505546901999]
我々はアダプティブ・サンプル・ウィズ・リワード(ASR)と呼ばれる報酬誘導型サンプリング戦略を提案する。
提案手法は,サンプリング過程を最適に調整し,最適性能を実現する。
情報検索とクラスタリングの実証的な結果は、異なるデータセット間でのASRのスーパーブパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-08-17T04:01:29Z) - Adaptive Client Sampling in Federated Learning via Online Learning with
Bandit Feedback [36.05851452151107]
統合学習(FL)システムは、トレーニングの各ラウンドに関与するクライアントのサブセットをサンプリングする必要があります。
その重要性にもかかわらず、クライアントを効果的にサンプリングする方法には制限がある。
提案手法は,最適化アルゴリズムの収束速度をいかに向上させるかを示す。
論文 参考訳(メタデータ) (2021-12-28T23:50:52Z) - Variance Reduction based Experience Replay for Policy Optimization [3.0790370651488983]
Variance Reduction Experience Replay (VRER) は、政策勾配推定を改善するために、関連するサンプルを選択的に再利用するためのフレームワークである。
VRERは、VRERによるポリシーグラディエントとして知られる、効率的な非政治学習アルゴリズムの基盤となる。
論文 参考訳(メタデータ) (2021-10-17T19:28:45Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Learning Sampling Policy for Faster Derivative Free Optimization [100.27518340593284]
ランダムサンプリングではなく,ZO最適化における摂動を生成するためのサンプリングポリシを学習する,新たな強化学習ベースのZOアルゴリズムを提案する。
その結果,ZO-RLアルゴリズムはサンプリングポリシを学習することでZO勾配の分散を効果的に低減し,既存のZOアルゴリズムよりも高速に収束できることが示唆された。
論文 参考訳(メタデータ) (2021-04-09T14:50:59Z) - Progressive Multi-Stage Learning for Discriminative Tracking [25.94944743206374]
本稿では,頑健な視覚追跡のためのサンプル選択の段階的多段階最適化ポリシを用いた共同識別学習手法を提案する。
提案手法は, 時間重み付き, 検出誘導型セルフペースト学習戦略により, 簡単なサンプル選択を行う。
ベンチマークデータセットの実験では、提案した学習フレームワークの有効性が示されている。
論文 参考訳(メタデータ) (2020-04-01T07:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。