論文の概要: MiniHack the Planet: A Sandbox for Open-Ended Reinforcement Learning
Research
- arxiv url: http://arxiv.org/abs/2109.13202v1
- Date: Mon, 27 Sep 2021 17:22:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:50:29.611878
- Title: MiniHack the Planet: A Sandbox for Open-Ended Reinforcement Learning
Research
- Title(参考訳): minihack the planet:オープンな強化学習研究のためのサンドボックス
- Authors: Mikayel Samvelyan, Robert Kirk, Vitaly Kurin, Jack Parker-Holder,
Minqi Jiang, Eric Hambro, Fabio Petroni, Heinrich K\"uttler, Edward
Grefenstette, Tim Rockt\"aschel
- Abstract要約: MiniHackは、新しい深層強化学習環境を簡単に設計するための強力なサンドボックスフレームワークである。
NetHackのエンティティと環境ダイナミクスの完全なセットを活用することで、MiniHackはカスタムのRLテストベッドを設計できる。
さまざまなRLタスクとベースラインに加えて、MiniHackは既存のRLベンチマークをラップし、シームレスに複雑さを追加する方法を提供する。
- 参考スコア(独自算出の注目度): 24.9044606044585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The progress in deep reinforcement learning (RL) is heavily driven by the
availability of challenging benchmarks used for training agents. However,
benchmarks that are widely adopted by the community are not explicitly designed
for evaluating specific capabilities of RL methods. While there exist
environments for assessing particular open problems in RL (such as exploration,
transfer learning, unsupervised environment design, or even language-assisted
RL), it is generally difficult to extend these to richer, more complex
environments once research goes beyond proof-of-concept results. We present
MiniHack, a powerful sandbox framework for easily designing novel RL
environments. MiniHack is a one-stop shop for RL experiments with environments
ranging from small rooms to complex, procedurally generated worlds. By
leveraging the full set of entities and environment dynamics from NetHack, one
of the richest grid-based video games, MiniHack allows designing custom RL
testbeds that are fast and convenient to use. With this sandbox framework,
novel environments can be designed easily, either using a human-readable
description language or a simple Python interface. In addition to a variety of
RL tasks and baselines, MiniHack can wrap existing RL benchmarks and provide
ways to seamlessly add additional complexity.
- Abstract(参考訳): 深層強化学習(RL)の進歩は、訓練エージェントに使用される挑戦的なベンチマークが利用可能であることによって大きく左右される。
しかし、コミュニティによって広く採用されているベンチマークは、RLメソッドの特定の機能を評価するために明示的に設計されていない。
RLの特定のオープンな問題を評価する環境(探索、移動学習、教師なし環境設計、言語支援RLなど)が存在するが、研究が概念実証を超えると、これらをよりリッチで複雑な環境に拡張することは一般的に困難である。
新規なRL環境を容易に設計するための強力なサンドボックスフレームワークであるMiniHackを提案する。
MiniHackは、小さな部屋から複雑な手続き的に生成された世界まで、RL実験のためのワンストップショップだ。
最もリッチなグリッドベースのビデオゲームであるNetHackのエンティティと環境ダイナミクスの完全なセットを活用することで、MiniHackは、高速で使いやすいカスタムRLテストベッドを設計できる。
このサンドボックスフレームワークでは、人間で読める記述言語か単純なpythonインターフェイスを使用して、新しい環境を簡単に設計できる。
さまざまなRLタスクとベースラインに加えて、MiniHackは既存のRLベンチマークをラップし、シームレスに複雑さを追加する方法を提供する。
関連論文リスト
- Gymnasium: A Standard Interface for Reinforcement Learning Environments [5.7144222327514616]
強化学習(Reinforcement Learning、RL)は、人工知能の多くの領域に革命をもたらす可能性がある成長分野である。
その約束にもかかわらず、RLの研究は環境やアルゴリズムの実装における標準化の欠如によってしばしば妨げられている。
Gymnasiumはオープンソースのライブラリで、RL環境の標準APIを提供する。
論文 参考訳(メタデータ) (2024-07-24T06:35:05Z) - A Benchmark Environment for Offline Reinforcement Learning in Racing Games [54.83171948184851]
オフライン強化学習(英語: Offline Reinforcement Learning、ORL)は、従来の強化学習(RL)の高サンプリング複雑さを減らすための有望なアプローチである。
本稿では,ORL研究のための新しい環境であるOfflineManiaを紹介する。
TrackManiaシリーズにインスパイアされ、Unity 3Dゲームエンジンで開発された。
論文 参考訳(メタデータ) (2024-07-12T16:44:03Z) - Craftium: An Extensible Framework for Creating Reinforcement Learning Environments [0.5461938536945723]
本稿では,リッチな3次元視覚的RL環境を探索・作成するための新しいフレームワークであるCraftiumについて述べる。
Craftiumは、Minetestゲームエンジンと人気のあるGymnasium APIの上に構築されている。
論文 参考訳(メタデータ) (2024-07-04T14:38:02Z) - RLtools: A Fast, Portable Deep Reinforcement Learning Library for Continuous Control [7.259696592534715]
深層強化学習(Deep Reinforcement Learning, RL)は、複数のドメインで有能なエージェントとコントロールポリシーを得られるが、一般的には、非常に長い訓練時間によって悩まされる。
RLtoolsは依存性のない、ヘッダのみの純粋なC++ライブラリで、深い教師付きと強化学習のためのライブラリである。
論文 参考訳(メタデータ) (2023-06-06T09:26:43Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z) - RL-DARTS: Differentiable Architecture Search for Reinforcement Learning [62.95469460505922]
我々は、強化学習(RL)における微分可能なアーキテクチャ探索(DARTS)の最初の応用の1つであるRL-DARTSを紹介する。
画像エンコーダをDARTSスーパーネットに置き換えることにより、検索方法はサンプリング効率が高く、余分な計算資源が最小限必要であり、また、既存のコードに小さな変更を加える必要がなく、オフ・ポリティクスとオン・ポリティクスのRLアルゴリズムとも互換性がある。
スーパーネットはより優れたセルを徐々に学習し、手作業で設計したポリシーに対して高い競争力を持つ代替アーキテクチャへとつながり、RLポリシーの以前の設計選択も検証できることを示す。
論文 参考訳(メタデータ) (2021-06-04T03:08:43Z) - EasyRL: A Simple and Extensible Reinforcement Learning Framework [3.2173369911280023]
EasyRLは、ユーザがRLエージェントをトレーニングし、評価するためのインタラクティブなグラフィカルユーザインターフェースを提供する。
EasyRLは、単純な組み込みRLエージェントのトレーニングとテストのためのプログラミング知識を必要としない。
EasyRLはカスタムRLエージェントと環境もサポートしており、RLモデルの評価と比較において、RL研究者にとって非常に有益である。
論文 参考訳(メタデータ) (2020-08-04T17:02:56Z) - WordCraft: An Environment for Benchmarking Commonsense Agents [107.20421897619002]
我々はLittle Alchemy 2.0をベースとしたRL環境であるWordCraftを提案する。
この軽量環境は、現実のセマンティクスにインスパイアされたエンティティとリレーションに基づいて実行され、構築される。
論文 参考訳(メタデータ) (2020-07-17T18:40:46Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z) - MushroomRL: Simplifying Reinforcement Learning Research [60.70556446270147]
MushroomRLはオープンソースのPythonライブラリで、強化学習(RL)実験の実装と実行を簡単にするために開発された。
他の利用可能なライブラリと比較して、MushroomRLは、新しいRL方法論の実装とテストの労力を最小限に抑えるために、包括的で柔軟なフレームワークを提供することを目的として作られた。
論文 参考訳(メタデータ) (2020-01-04T17:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。