論文の概要: GriddlyJS: A Web IDE for Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2207.06105v1
- Date: Wed, 13 Jul 2022 10:26:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 22:42:17.479538
- Title: GriddlyJS: A Web IDE for Reinforcement Learning
- Title(参考訳): GriddlyJS: 強化学習のためのWeb IDE
- Authors: Christopher Bamford, Minqi Jiang, Mikayel Samvelyan, Tim Rockt\"aschel
- Abstract要約: GriddlyエンジンをベースとしたWebベースの統合開発環境(IDE)であるGriddlyJSを紹介します。
GriddlyJSは、任意の複雑なPCGグリッドワールド環境を視覚的に設計し、デバッグすることを可能にする。
RLワークフローをモダンなWeb標準によって実現された高度な機能に接続することで、GriddlyJSはインタラクティブなエージェント環境のデモを公開することができる。
- 参考スコア(独自算出の注目度): 7.704064306361941
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Progress in reinforcement learning (RL) research is often driven by the
design of new, challenging environments -- a costly undertaking requiring
skills orthogonal to that of a typical machine learning researcher. The
complexity of environment development has only increased with the rise of
procedural-content generation (PCG) as the prevailing paradigm for producing
varied environments capable of testing the robustness and generalization of RL
agents. Moreover, existing environments often require complex build processes,
making reproducing results difficult. To address these issues, we introduce
GriddlyJS, a web-based Integrated Development Environment (IDE) based on the
Griddly engine. GriddlyJS allows researchers to visually design and debug
arbitrary, complex PCG grid-world environments using a convenient graphical
interface, as well as visualize, evaluate, and record the performance of
trained agent models. By connecting the RL workflow to the advanced
functionality enabled by modern web standards, GriddlyJS allows publishing
interactive agent-environment demos that reproduce experimental results
directly to the web. To demonstrate the versatility of GriddlyJS, we use it to
quickly develop a complex compositional puzzle-solving environment alongside
arbitrary human-designed environment configurations and their solutions for use
in automatic curriculum learning and offline RL. The GriddlyJS IDE is open
source and freely available at \url{https://griddly.ai}.
- Abstract(参考訳): 強化学習(RL)研究の進歩は、しばしば新しい挑戦的な環境の設計によって引き起こされる。
環境開発の複雑さは、RLエージェントの堅牢性と一般化をテストできる様々な環境を生産するための主要なパラダイムとして、手続き的コンテンツ生成(PCG)の台頭とともに増大している。
さらに、既存の環境は複雑なビルドプロセスを必要とすることが多く、再現が難しくなる。
このような問題に対処するために、Griddlyエンジンに基づいたWebベースの統合開発環境(IDE)であるGriddlyJSを紹介します。
griddlyjsを使えば、研究者は便利なグラフィカルインターフェースを使って任意の複雑なpcgグリッドワールド環境を視覚的に設計、デバッグでき、また訓練されたエージェントモデルのパフォーマンスを視覚化、評価、記録することができる。
rlワークフローをモダンなweb標準によって実現される高度な機能に接続することで、griddlyjsは実験結果をwebに直接再現するインタラクティブなエージェント環境デモを公開することができる。
GriddlyJSの汎用性を実証するために、任意の人間設計環境構成と組み合わせた複雑な構成パズル解決環境と、自動カリキュラム学習やオフラインRLで使用するソリューションを迅速に開発する。
GriddlyJS IDEはオープンソースで、 \url{https://griddly.ai}で無料で利用できる。
関連論文リスト
- CoRL: Environment Creation and Management Focused on System Integration [0.0]
コア強化学習ライブラリ(Core Reinforcement Learning Library, CoRL)は、モジュール式で構成可能で、設定可能な環境作成ツールである。
簡単に読み取れる構成ファイル、ピダンティックバリデータ、およびファクタデザインパターンを使用することで、エージェントの観察、報酬、完了条件の微調整を可能にする。
論文 参考訳(メタデータ) (2023-03-03T19:01:53Z) - IGLU Gridworld: Simple and Fast Environment for Embodied Dialog Agents [54.300585048295225]
本稿では,言語条件付きエンボディエージェントをスケーラブルに構築・評価するための強化学習環境IGLU Gridworldを提案する。
この環境は、視覚エージェントの具体化、コラボレーションによるインタラクティブな学習、言語条件付きRL、複合的なハードタスク(3dブロック)空間を備えている。
論文 参考訳(メタデータ) (2022-05-31T23:08:22Z) - Composing Complex and Hybrid AI Solutions [52.00820391621739]
一般的なAIアプリケーションで上記の機能を実現するためのAcumosシステムの拡張について述べる。
当社の拡張機能には、gRPC/Protobufインターフェースによるより汎用的なコンポーネントのサポートが含まれています。
デプロイ可能なソリューションとそのインターフェースの例を提供する。
論文 参考訳(メタデータ) (2022-02-25T08:57:06Z) - Environment Generation for Zero-Shot Compositional Reinforcement
Learning [105.35258025210862]
環境構成設計(CoDE)は、ジェネレータエージェントを訓練し、エージェントの現在のスキルレベルに合わせて一連の構成タスクを自動的に構築する。
我々は,複数のページや部屋からなる環境を生成することを学び,それらの環境において複雑なタスクを広範囲にこなせるRLエージェントを訓練する。
CoDEは最強のベースラインよりも4倍高い成功率を示し、3500のプリミティブタスクで学んだ実際のWebサイトのパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-01-21T21:35:01Z) - SILG: The Multi-environment Symbolic Interactive Language Grounding
Benchmark [62.34200575624785]
マルチ環境対話型言語グラウンドベンチマーク(SILG)を提案する。
SILGは、新しいダイナミクス、エンティティ、部分的に観察された世界(RTFM、Messenger、NetHack)への一般化を必要とするグリッドワールド環境で構成されている。
SILGを用いた自己中心型局所的畳み込み,再帰状態追跡,エンティティ中心の注意,事前訓練によるLMなどの最近の進歩を評価した。
論文 参考訳(メタデータ) (2021-10-20T17:02:06Z) - MiniHack the Planet: A Sandbox for Open-Ended Reinforcement Learning
Research [24.9044606044585]
MiniHackは、新しい深層強化学習環境を簡単に設計するための強力なサンドボックスフレームワークである。
NetHackのエンティティと環境ダイナミクスの完全なセットを活用することで、MiniHackはカスタムのRLテストベッドを設計できる。
さまざまなRLタスクとベースラインに加えて、MiniHackは既存のRLベンチマークをラップし、シームレスに複雑さを追加する方法を提供する。
論文 参考訳(メタデータ) (2021-09-27T17:22:42Z) - Scenic4RL: Programmatic Modeling and Generation of Reinforcement
Learning Environments [89.04823188871906]
リアルタイム戦略(RTS)環境では,多様な現実シナリオの生成が難しい。
既存のシミュレータのほとんどは環境をランダムに生成することに頼っている。
我々は、研究者を支援するために、既存の形式シナリオ仕様言語であるSCENICを採用する利点を紹介する。
論文 参考訳(メタデータ) (2021-06-18T21:49:46Z) - Modular Procedural Generation for Voxel Maps [2.6811189633660613]
本稿では,Minecraft などのボクセル環境を対象とした PCG アルゴリズムの実装を容易にするオープンソースライブラリ mcg を提案する。
この図書館は人間と機械のチーム研究を念頭に設計されており、世代に「トップダウン」なアプローチを採っている。
このアプローチの利点は、仮想環境の迅速でスケーラブルで効率的な開発、セマンティックレベルで環境の統計を制御できる機能、およびプレイヤーのアクションにリアルタイムで応答して新しい環境を生成する機能です。
論文 参考訳(メタデータ) (2021-04-18T16:21:35Z) - Adversarial Environment Generation for Learning to Navigate the Web [107.99759923626242]
Webナビゲーションエージェントのトレーニングのボトルネックの1つは、トレーニング環境の学習可能なカリキュラムを提供することです。
AEG(Adversarial Environment Generation)を使用して、強化学習(RL)エージェントを訓練する困難なWeb環境を生成することを提案する。
提案するフレキシブルb-PAIRED技術を用いて訓練したナビゲータエージェントは,競争力のある自動カリキュラム生成ベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-03-02T19:19:30Z) - Integrating Distributed Architectures in Highly Modular RL Libraries [4.297070083645049]
ほとんどの人気のある強化学習ライブラリは、高度にモジュール化されたエージェントの構成性を主張している。
本稿では、RLエージェントを独立した再利用可能なコンポーネントによって異なるスケールで定義できる汎用的アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-06T10:22:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。