論文の概要: Distributed Deep Reinforcement Learning: An Overview
- arxiv url: http://arxiv.org/abs/2011.11012v1
- Date: Sun, 22 Nov 2020 13:24:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 12:17:39.835170
- Title: Distributed Deep Reinforcement Learning: An Overview
- Title(参考訳): 分散深層強化学習の概要
- Authors: Mohammad Reza Samsami, Hossein Alimadad
- Abstract要約: 本稿では,DRLにおける分散アプローチの役割について調査する。
本稿では,DRLにおける分散手法の活用方法に大きな影響を与える重要な研究成果について概説する。
また,これらの手法を異なるタスクで評価し,その性能を1人のアクターと学習者エージェントで比較する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep reinforcement learning (DRL) is a very active research area. However,
several technical and scientific issues require to be addressed, amongst which
we can mention data inefficiency, exploration-exploitation trade-off, and
multi-task learning. Therefore, distributed modifications of DRL were
introduced; agents that could be run on many machines simultaneously. In this
article, we provide a survey of the role of the distributed approaches in DRL.
We overview the state of the field, by studying the key research works that
have a significant impact on how we can use distributed methods in DRL. We
choose to overview these papers, from the perspective of distributed learning,
and not the aspect of innovations in reinforcement learning algorithms. Also,
we evaluate these methods on different tasks and compare their performance with
each other and with single actor and learner agents.
- Abstract(参考訳): 深層強化学習(DRL)は非常に活発な研究分野である。
しかしながら、いくつかの技術的および科学的問題に対処する必要があり、その中にはデータの非効率性、探索-探索トレードオフ、マルチタスク学習について言及できる。
そのため、DRLの分散変更が導入され、多くのマシンで同時に動作可能なエージェントが導入された。
本稿では,DRLにおける分散アプローチの役割について調査する。
我々は、分散メソッドをdrlでどのように使用できるかに大きな影響を与える重要な研究成果を研究することにより、この分野の状況を概観する。
我々は、強化学習アルゴリズムにおけるイノベーションの側面ではなく、分散学習の観点からこれらの論文を概観する。
また,これらの手法を異なるタスクで評価し,その性能を一つのアクターと学習者エージェントで比較する。
関連論文リスト
- Generative AI for Deep Reinforcement Learning: Framework, Analysis, and Use Cases [60.30995339585003]
深部強化学習(DRL)は様々な分野に広く適用されており、優れた成果を上げている。
DRLは、サンプル効率の低下や一般化の低さなど、いくつかの制限に直面している。
本稿では、これらの問題に対処し、DRLアルゴリズムの性能を向上させるために、生成AI(GAI)を活用する方法について述べる。
論文 参考訳(メタデータ) (2024-05-31T01:25:40Z) - Sample Efficient Myopic Exploration Through Multitask Reinforcement
Learning with Diverse Tasks [53.44714413181162]
本稿では, エージェントが十分に多様なタスクセットで訓練された場合, 筋電図探索設計による一般的なポリシー共有アルゴリズムは, サンプル効率がよいことを示す。
我々の知る限りでは、これはMTRLの「探索的利益」の初めての理論的実証である。
論文 参考訳(メタデータ) (2024-03-03T22:57:44Z) - Leveraging Knowledge Distillation for Efficient Deep Reinforcement
Learning in Resource-Constrained Environments [0.0]
本稿では, 深層強化学習(DRL)と知識蒸留(KD)の併用の可能性を探る。
主な目的は、KD技術を用いて改良された異なるDRLアルゴリズムの性能を評価するためのベンチマークを提供することである。
DRLとKDの組み合わせを探求することで、この研究はGPUリソースの少ないモデルの開発を促進し、より早く学習し、複雑な環境でより高速な意思決定を行うことを目的としている。
論文 参考訳(メタデータ) (2023-10-16T08:26:45Z) - Evolutionary Reinforcement Learning: A Survey [31.112066295496003]
強化学習(Reinforcement Learning、RL)は、エージェントが環境とのインタラクションを通じて累積報酬を最大化するように訓練する機械学習アプローチである。
本稿では、進化強化学習(EvoRL)と呼ばれる、ECをRLに統合するための最先端手法に関する総合的な調査を紹介する。
論文 参考訳(メタデータ) (2023-03-07T01:38:42Z) - Effective Multimodal Reinforcement Learning with Modality Alignment and
Importance Enhancement [41.657470314421204]
異質性や異なるモダリティのダイナミックな重要性のため、強化学習を通じてエージェントを訓練することは困難である。
本稿では,その類似性と重要度に応じて,多モーダルアライメントと重要度向上を実現する,新しいマルチモーダルRL手法を提案する。
我々は,複数のマルチモーダルRLドメインに対するアプローチを検証し,学習速度と政策品質の点で最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-02-18T12:35:42Z) - A Survey of Meta-Reinforcement Learning [69.76165430793571]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - Pretraining in Deep Reinforcement Learning: A Survey [17.38360092869849]
事前訓練は伝達可能な知識の獲得に有効であることが示されている。
強化学習の性質から, この分野でのプレトレーニングには, 独特な課題が伴う。
論文 参考訳(メタデータ) (2022-11-08T02:17:54Z) - A Comprehensive Survey of Data Augmentation in Visual Reinforcement Learning [53.35317176453194]
データ拡張(DA)は、サンプル効率と一般化可能なポリシーを取得するために視覚的RLで広く使われている技術である。
本稿では、視覚的RLで使用されている既存の拡張技法の原則的な分類法を提案し、拡張データをどのように活用するかを詳細に議論する。
視覚的RLにおけるDAに関する最初の総合的な調査として、この研究は、この新興分野に貴重なガイダンスを提供するものと期待されている。
論文 参考訳(メタデータ) (2022-10-10T11:01:57Z) - Conservative Data Sharing for Multi-Task Offline Reinforcement Learning [119.85598717477016]
オフラインRLの自然なユースケースは、さまざまなシナリオで収集された大量のデータをプールして、さまざまなタスクを解決できるような設定にある、と私たちは主張する。
タスク固有のデータに対する改善に基づいてデータをルーティングするマルチタスクオフラインRLにおけるデータ共有手法を開発した。
論文 参考訳(メタデータ) (2021-09-16T17:34:06Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。