論文の概要: Open RL Benchmark: Comprehensive Tracked Experiments for Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2402.03046v1
- Date: Mon, 5 Feb 2024 14:32:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 15:44:28.761813
- Title: Open RL Benchmark: Comprehensive Tracked Experiments for Reinforcement
Learning
- Title(参考訳): Open RLベンチマーク:強化学習のための総合的な追跡実験
- Authors: Shengyi Huang and Quentin Gallou\'edec and Florian Felten and Antonin
Raffin and Rousslan Fernand Julien Dossa and Yanxiao Zhao and Ryan Sullivan
and Viktor Makoviychuk and Denys Makoviichuk and Mohamad H. Danesh and Cyril
Roum\'egous and Jiayi Weng and Chufan Chen and Md Masudur Rahman and Jo\~ao
G. M. Ara\'ujo and Guorui Quan and Daniel Tan and Timo Klein and Rujikorn
Charakorn and Mark Towers and Yann Berthelot and Kinal Mehta and Dipam
Chakraborty and Arjun KG and Valentin Charraut and Chang Ye and Zichen Liu
and Lucas N. Alegre and Alexander Nikulin and Xiao Hu and Tianlin Liu and
Jongwook Choi and Brent Yi
- Abstract要約: 我々は、完全に追跡されたRL実験のセットであるOpen RL Benchmarkを紹介する。
Open RL Benchmarkはコミュニティ主導で、誰でもダウンロード、使用、データへのコントリビューションが可能です。
それぞれの実験が正確に再現可能であることを保証するため、特別に注意が払われる。
- 参考スコア(独自算出の注目度): 41.971465819626005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many Reinforcement Learning (RL) papers, learning curves are useful
indicators to measure the effectiveness of RL algorithms. However, the complete
raw data of the learning curves are rarely available. As a result, it is
usually necessary to reproduce the experiments from scratch, which can be
time-consuming and error-prone. We present Open RL Benchmark, a set of fully
tracked RL experiments, including not only the usual data such as episodic
return, but also all algorithm-specific and system metrics. Open RL Benchmark
is community-driven: anyone can download, use, and contribute to the data. At
the time of writing, more than 25,000 runs have been tracked, for a cumulative
duration of more than 8 years. Open RL Benchmark covers a wide range of RL
libraries and reference implementations. Special care is taken to ensure that
each experiment is precisely reproducible by providing not only the full
parameters, but also the versions of the dependencies used to generate it. In
addition, Open RL Benchmark comes with a command-line interface (CLI) for easy
fetching and generating figures to present the results. In this document, we
include two case studies to demonstrate the usefulness of Open RL Benchmark in
practice. To the best of our knowledge, Open RL Benchmark is the first RL
benchmark of its kind, and the authors hope that it will improve and facilitate
the work of researchers in the field.
- Abstract(参考訳): 多くの強化学習(RL)論文では、学習曲線はRLアルゴリズムの有効性を測定するのに有用な指標である。
しかし、学習曲線の完全な生データはほとんど得られない。
結果として、通常、実験をスクラッチから再現する必要がある。
提案するOpen RL Benchmarkは,epsodic returnなどの通常のデータだけでなく,アルゴリズム固有およびシステムメトリクスも含む,完全に追跡されたRL実験の集合である。
Open RL Benchmarkはコミュニティ主導で、誰でもダウンロード、使用、データへのコントリビューションが可能です。
執筆時点では,8年以上の累積期間を経て,25,000回以上のランが追跡されている。
Open RL Benchmarkは、幅広いRLライブラリとリファレンス実装をカバーしている。
それぞれの実験が、完全なパラメータだけでなく、それを生成するために使用される依存関係のバージョンを提供することによって、正確に再現可能であることを保証するために、特別に注意される。
さらに、open rlベンチマークにはコマンドラインインターフェース(cli)が付属しており、簡単にフェッチし、結果を表示する数値を生成することができる。
本稿では,Open RLベンチマークの有用性を示す2つのケーススタディを含む。
我々の知る限り、Open RL Benchmarkはこの種の最初のRLベンチマークであり、著者らはこの分野の研究者の作業を改善し、促進することを望んでいる。
関連論文リスト
- SRL: Scaling Distributed Reinforcement Learning to Over Ten Thousand Cores [13.948640763797776]
本稿では,RLトレーニングアプリケーションを汎用フレームワークに統合する,RLトレーニングのデータフローに関する新しい抽象化を提案する。
スケーラブルで効率的で分散的なRLシステムであるReaLly scalableRLを開発した。
SRLは15k以上のCPUコアでRL実験を大規模に実施した初めての学術コミュニティである。
論文 参考訳(メタデータ) (2023-06-29T05:16:25Z) - RL$^3$: Boosting Meta Reinforcement Learning via RL inside RL$^2$ [12.111848705677142]
メタRLへの入力において、従来のRLを通してタスク毎に学習されるアクション値を含むハイブリッドアプローチであるRL$3$を提案する。
RL$3$は、RL$2$と比較して、短期的にはデータ効率を保ちながら、長期的には累積的な報酬を多く得ており、アウト・オブ・ディストリビューション・タスクよりも一般化されていることを示す。
論文 参考訳(メタデータ) (2023-06-28T04:16:16Z) - Improving and Benchmarking Offline Reinforcement Learning Algorithms [87.67996706673674]
この作業は、低レベルの選択とデータセットによって引き起こされるギャップを埋めることを目的としている。
3つの代表アルゴリズムを用いて20の実装選択を実証的に検討する。
CRR+とCQL+の2つの変種がD4RL上で新たな最先端を実現している。
論文 参考訳(メタデータ) (2023-06-01T17:58:46Z) - LCRL: Certified Policy Synthesis via Logically-Constrained Reinforcement
Learning [78.2286146954051]
LCRLは未知決定プロセス(MDP)上でのモデルフリー強化学習(RL)アルゴリズムを実装している
本稿では,LCRLの適用性,使いやすさ,拡張性,性能を示すケーススタディを提案する。
論文 参考訳(メタデータ) (2022-09-21T13:21:00Z) - ShinRL: A Library for Evaluating RL Algorithms from Theoretical and
Practical Perspectives [11.675763847424786]
本稿では、強化学習(RL)アルゴリズムを評価するためのオープンソースのライブラリであるShinRLを紹介する。
ShinRLは、RLアルゴリズムの振る舞いを掘り下げるためのメトリクスを計算することができるRL環境インターフェースを提供する。
ShinRLのこれらの2つの特徴を組み合わせることで、深層Q学習の振る舞いをより容易に分析できることを示す。
論文 参考訳(メタデータ) (2021-12-08T05:34:46Z) - RL-Scope: Cross-Stack Profiling for Deep Reinforcement Learning
Workloads [4.575381867242508]
RL-Scopeは、低レベルのCPU/GPUリソース使用量を高レベルのアルゴリズム操作にスコープするクロススタックプロファイラである。
本稿では,RL-Scopeの実用性について,詳細なケーススタディを通して紹介する。
論文 参考訳(メタデータ) (2021-02-08T15:42:48Z) - Learning to Prune Deep Neural Networks via Reinforcement Learning [64.85939668308966]
PuRLは、ニューラルネットワークのプルーニングのためのディープ強化学習ベースのアルゴリズムである。
現在の最先端の手法に匹敵する幅と精度を実現している。
論文 参考訳(メタデータ) (2020-07-09T13:06:07Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z) - MushroomRL: Simplifying Reinforcement Learning Research [60.70556446270147]
MushroomRLはオープンソースのPythonライブラリで、強化学習(RL)実験の実装と実行を簡単にするために開発された。
他の利用可能なライブラリと比較して、MushroomRLは、新しいRL方法論の実装とテストの労力を最小限に抑えるために、包括的で柔軟なフレームワークを提供することを目的として作られた。
論文 参考訳(メタデータ) (2020-01-04T17:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。