論文の概要: JORLDY: a fully customizable open source framework for reinforcement
learning
- arxiv url: http://arxiv.org/abs/2204.04892v1
- Date: Mon, 11 Apr 2022 06:28:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 03:46:17.403271
- Title: JORLDY: a fully customizable open source framework for reinforcement
learning
- Title(参考訳): jorldy:強化学習のための完全カスタマイズ可能なオープンソースフレームワーク
- Authors: Kyushik Min, Hyunho Lee, Kwansu Shin, Taehak Lee, Hojoon Lee, Jinwon
Choi, Sungho Son
- Abstract要約: 強化学習(Reinforcement Learning, RL)は、学術分野と産業分野の両方で活発に研究されている。
JORLDYは、Pytorchで実装された20以上の広く使われているRLアルゴリズムを提供する。
JORLDYはOpenAIジム、Unity ML-Agents、Mujoco、Super Mario Bros、Procgenなど、複数のRL環境をサポートしている。
- 参考スコア(独自算出の注目度): 3.1864456096282696
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recently, Reinforcement Learning (RL) has been actively researched in both
academic and industrial fields. However, there exist only a few RL frameworks
which are developed for researchers or students who want to study RL. In
response, we propose an open-source RL framework "Join Our Reinforcement
Learning framework for Developing Yours" (JORLDY). JORLDY provides more than 20
widely used RL algorithms which are implemented with Pytorch. Also, JORLDY
supports multiple RL environments which include OpenAI gym, Unity ML-Agents,
Mujoco, Super Mario Bros and Procgen. Moreover, the algorithmic components such
as agent, network, environment can be freely customized, so that the users can
easily modify and append algorithmic components. We expect that JORLDY will
support various RL research and contribute further advance the field of RL. The
source code of JORLDY is provided on the following Github:
https://github.com/kakaoenterprise/JORLDY
- Abstract(参考訳): 近年,Reinforcement Learning (RL) は学術・産業分野で積極的に研究されている。
しかし、RLを勉強したい研究者や学生のために開発されたRLフレームワークはわずかである。
そこで我々はオープンソースのRLフレームワーク"Join Our Reinforcement Learning framework for developing Yours" (JORLDY)を提案する。
JORLDYは、Pytorchで実装された20以上の広く使われているRLアルゴリズムを提供する。
また、JORLDYはOpenAIジム、Unity ML-Agents、Mujoco、Super Mario Bros、Procgenなど、複数のRL環境をサポートしている。
さらに、エージェント、ネットワーク、環境などのアルゴリズムコンポーネントを自由にカスタマイズすることができ、ユーザが簡単にアルゴリズムコンポーネントを修正して追加することができる。
我々は、JORLDYが様々なRL研究を支援し、RLの分野をさらに前進させることを期待する。
JORLDYのソースコードは次のGithubで提供されている。
関連論文リスト
- ArCHer: Training Language Model Agents via Hierarchical Multi-Turn RL [80.10358123795946]
大規模言語モデルを微調整するためのマルチターンRLアルゴリズムを構築するためのフレームワークを開発する。
我々のフレームワークは階層的なRLアプローチを採用し、2つのRLアルゴリズムを並列に実行している。
実験により,ArCHerはエージェントタスクの効率と性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-29T18:45:56Z) - OpenRL: A Unified Reinforcement Learning Framework [19.12129820612253]
先進的な強化学習(RL)フレームワークであるOpenRLを紹介する。
シングルエージェントの課題から複雑なマルチエージェントシステムまで、さまざまなタスクに対応するように設計されている。
自然言語処理(NLP)とRLを統合することで、研究者はRLトレーニングと言語中心のタスクを効果的に組み合わせることができる。
論文 参考訳(メタデータ) (2023-12-20T12:04:06Z) - RL4CO: an Extensive Reinforcement Learning for Combinatorial Optimization Benchmark [69.19502244910632]
深部強化学習(RL)は、最適化(CO)問題を解く上で大きな利点を示している。
RL4COは,23の最先端メソッドと20以上のCO問題を含む,詳細なライブラリカバレッジを備えた統一ベンチマークである。
効率的なソフトウェアライブラリと実装のベストプラクティスに基づいて構築されたRL4COは、モジュール化された実装と、多様なRLアルゴリズム、ニューラルネットワークアーキテクチャ、推論技術、環境の柔軟な構成を備えている。
論文 参考訳(メタデータ) (2023-06-29T16:57:22Z) - Godot Reinforcement Learning Agents [10.413185820687021]
Godot RL Agentsインターフェースは、挑戦的な2Dおよび3D環境におけるエージェントの動作の設計、生成、学習を可能にする。
このフレームワークは、研究者やゲームデザイナが、離散的、連続的、混合的なアクション空間を持つ環境を作成できる汎用的なツールである。
論文 参考訳(メタデータ) (2021-12-07T11:24:34Z) - RL-DARTS: Differentiable Architecture Search for Reinforcement Learning [62.95469460505922]
我々は、強化学習(RL)における微分可能なアーキテクチャ探索(DARTS)の最初の応用の1つであるRL-DARTSを紹介する。
画像エンコーダをDARTSスーパーネットに置き換えることにより、検索方法はサンプリング効率が高く、余分な計算資源が最小限必要であり、また、既存のコードに小さな変更を加える必要がなく、オフ・ポリティクスとオン・ポリティクスのRLアルゴリズムとも互換性がある。
スーパーネットはより優れたセルを徐々に学習し、手作業で設計したポリシーに対して高い競争力を持つ代替アーキテクチャへとつながり、RLポリシーの以前の設計選択も検証できることを示す。
論文 参考訳(メタデータ) (2021-06-04T03:08:43Z) - Improving Reinforcement Learning with Human Assistance: An Argument for
Human Subject Studies with HIPPO Gym [21.4215863934377]
強化学習(Reinforcement Learning、RL)は、ゲームプレイ、ロボティクス制御、その他のシーケンシャルな意思決定タスクのための一般的な機械学習パラダイムである。
本稿では,オープンソースRLフレームワークであるHuman Input Parsing Platform for Openai Gym(HIPPO Gym)を紹介します。
論文 参考訳(メタデータ) (2021-02-02T12:56:02Z) - EasyRL: A Simple and Extensible Reinforcement Learning Framework [3.2173369911280023]
EasyRLは、ユーザがRLエージェントをトレーニングし、評価するためのインタラクティブなグラフィカルユーザインターフェースを提供する。
EasyRLは、単純な組み込みRLエージェントのトレーニングとテストのためのプログラミング知識を必要としない。
EasyRLはカスタムRLエージェントと環境もサポートしており、RLモデルの評価と比較において、RL研究者にとって非常に有益である。
論文 参考訳(メタデータ) (2020-08-04T17:02:56Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z) - MushroomRL: Simplifying Reinforcement Learning Research [60.70556446270147]
MushroomRLはオープンソースのPythonライブラリで、強化学習(RL)実験の実装と実行を簡単にするために開発された。
他の利用可能なライブラリと比較して、MushroomRLは、新しいRL方法論の実装とテストの労力を最小限に抑えるために、包括的で柔軟なフレームワークを提供することを目的として作られた。
論文 参考訳(メタデータ) (2020-01-04T17:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。