論文の概要: PyTorchRL: Modular and Distributed Reinforcement Learning in PyTorch
- arxiv url: http://arxiv.org/abs/2007.02622v2
- Date: Wed, 10 Feb 2021 16:39:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 01:06:23.937591
- Title: PyTorchRL: Modular and Distributed Reinforcement Learning in PyTorch
- Title(参考訳): PyTorchRL: PyTorchにおけるモジュール型および分散強化学習
- Authors: Albert Bou and Gianni De Fabritiis
- Abstract要約: 深層強化学習(RL)は、難しい環境の解決に成功しているが、大規模なサンプリングやコンピューティングリソースへのスケーリングを必要とすることが多い。
PyTorchRLはモジュール設計のPyTorchベースのライブラリで,再利用可能な拡張可能なモジュールの集合からエージェントを構成することができる。
PyTorchRLの興味深いユースケースをいくつか紹介し、Obstacle Tower Unity3Dチャレンジ環境上での最新のテスト性能を最大化して、ライブラリを展示する。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning (RL) has proved successful at solving challenging
environments but often requires scaling to large sampling and computing
resources. Furthermore, advancing RL requires tools that are flexible enough to
easily prototype new methods, yet avoiding impractically slow experimental
turnaround times. To this end, we present PyTorchRL, a PyTorch-based library
for RL with a modular design that allows composing agents from a set of
reusable and easily extendable modules. Additionally, PyTorchRL permits the
definition of distributed training architectures with flexibility and
independence of the Agent components. In combination, these two features can
accelerate the pace at which ideas are implemented and tested, simplifying
research and enabling to tackle more challenging RL problems. We present
several interesting use-cases of PyTorchRL and showcase the library by
obtaining the highest to-date test performance on the Obstacle Tower Unity3D
challenge environment.
- Abstract(参考訳): 深層強化学習(RL)は、難しい環境の解決に成功しているが、大規模なサンプリングやコンピューティングリソースへのスケーリングを必要とすることが多い。
さらに、RLを前進させるには、新しいメソッドを簡単にプロトタイプできるほど柔軟でありながら、急激な実験的なターンアラウンド時間を避けるツールが必要である。
この目的のためにPyTorchRLはモジュール設計のPyTorchベースのライブラリであり、再利用可能な拡張可能なモジュールの集合からエージェントを構成することができる。
さらに、PyTorchRLは、エージェントコンポーネントの柔軟性と独立性を備えた分散トレーニングアーキテクチャの定義を可能にする。
これら2つの機能は、アイデアの実装とテストのペースを加速し、研究を簡素化し、より困難なRL問題に取り組むことができる。
PyTorchRLの興味深いユースケースをいくつか紹介し、Obstacle Tower Unity3Dチャレンジ環境上での最新のテスト性能を最大化して、ライブラリを展示する。
関連論文リスト
- Multi-Agent Environments for Vehicle Routing Problems [1.0179489519625304]
本稿では,従来の車両ルーティング問題をシミュレートするマルチエージェント環境からなるライブラリを提案する。
PyTorch上に構築されたこのライブラリは、新しいルーティング問題のカスタマイズと導入を容易にする、柔軟なモジュラーアーキテクチャ設計を提供する。
論文 参考訳(メタデータ) (2024-11-21T18:46:23Z) - EasyRL4Rec: An Easy-to-use Library for Reinforcement Learning Based Recommender Systems [18.22130279210423]
我々は、RLベースのRS用に特別に設計された、使いやすいコードライブラリであるEasyRL4Recを紹介する。
このライブラリは5つのパブリックデータセットに基づいた軽量で多様なRL環境を提供する。
EasyRL4Recは、RLベースのRSのドメインにおけるモデル開発と実験プロセスの促進を目指している。
論文 参考訳(メタデータ) (2024-02-23T07:54:26Z) - OpenRL: A Unified Reinforcement Learning Framework [19.12129820612253]
先進的な強化学習(RL)フレームワークであるOpenRLを紹介する。
シングルエージェントの課題から複雑なマルチエージェントシステムまで、さまざまなタスクに対応するように設計されている。
自然言語処理(NLP)とRLを統合することで、研究者はRLトレーニングと言語中心のタスクを効果的に組み合わせることができる。
論文 参考訳(メタデータ) (2023-12-20T12:04:06Z) - LExCI: A Framework for Reinforcement Learning with Embedded Systems [1.8218298349840023]
本稿では,RLライブラリと組込みシステムとのギャップを埋める LExCI というフレームワークを提案する。
オープンソースライブラリのRLlibを使用して,組み込みシステム上でエージェントをトレーニングするための,無償かつオープンソースツールを提供する。
操作性は、最先端の2つのRL-algorithmと、迅速な制御プロトタイピングシステムで実証されている。
論文 参考訳(メタデータ) (2023-12-05T13:06:25Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - CoRL: Environment Creation and Management Focused on System Integration [0.0]
コア強化学習ライブラリ(Core Reinforcement Learning Library, CoRL)は、モジュール式で構成可能で、設定可能な環境作成ツールである。
簡単に読み取れる構成ファイル、ピダンティックバリデータ、およびファクタデザインパターンを使用することで、エージェントの観察、報酬、完了条件の微調整を可能にする。
論文 参考訳(メタデータ) (2023-03-03T19:01:53Z) - Multi-Agent Reinforcement Learning for Microprocessor Design Space
Exploration [71.95914457415624]
マイクロプロセッサアーキテクトは、高性能でエネルギー効率の追求において、ドメイン固有のカスタマイズにますます頼っている。
この問題に対処するために,Multi-Agent RL (MARL) を利用した別の定式化を提案する。
評価の結果,MARLの定式化は単エージェントRLのベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-11-29T17:10:24Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - Scenic4RL: Programmatic Modeling and Generation of Reinforcement
Learning Environments [89.04823188871906]
リアルタイム戦略(RTS)環境では,多様な現実シナリオの生成が難しい。
既存のシミュレータのほとんどは環境をランダムに生成することに頼っている。
我々は、研究者を支援するために、既存の形式シナリオ仕様言語であるSCENICを採用する利点を紹介する。
論文 参考訳(メタデータ) (2021-06-18T21:49:46Z) - MushroomRL: Simplifying Reinforcement Learning Research [60.70556446270147]
MushroomRLはオープンソースのPythonライブラリで、強化学習(RL)実験の実装と実行を簡単にするために開発された。
他の利用可能なライブラリと比較して、MushroomRLは、新しいRL方法論の実装とテストの労力を最小限に抑えるために、包括的で柔軟なフレームワークを提供することを目的として作られた。
論文 参考訳(メタデータ) (2020-01-04T17:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。