論文の概要: Godot Reinforcement Learning Agents
- arxiv url: http://arxiv.org/abs/2112.03636v1
- Date: Tue, 7 Dec 2021 11:24:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 20:32:27.834431
- Title: Godot Reinforcement Learning Agents
- Title(参考訳): ゴッド強化学習エージェント
- Authors: Edward Beeching, Jilles Debangoye, Olivier Simonin, Christian Wolf
- Abstract要約: Godot RL Agentsインターフェースは、挑戦的な2Dおよび3D環境におけるエージェントの動作の設計、生成、学習を可能にする。
このフレームワークは、研究者やゲームデザイナが、離散的、連続的、混合的なアクション空間を持つ環境を作成できる汎用的なツールである。
- 参考スコア(独自算出の注目度): 10.413185820687021
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Godot Reinforcement Learning (RL) Agents, an open-source interface
for developing environments and agents in the Godot Game Engine. The Godot RL
Agents interface allows the design, creation and learning of agent behaviors in
challenging 2D and 3D environments with various on-policy and off-policy Deep
RL algorithms. We provide a standard Gym interface, with wrappers for learning
in the Ray RLlib and Stable Baselines RL frameworks. This allows users access
to over 20 state of the art on-policy, off-policy and multi-agent RL
algorithms. The framework is a versatile tool that allows researchers and game
designers the ability to create environments with discrete, continuous and
mixed action spaces. The interface is relatively performant, with 12k
interactions per second on a high end laptop computer, when parallized on 4 CPU
cores. An overview video is available here: https://youtu.be/g1MlZSFqIj4
- Abstract(参考訳): 我々は,godotゲームエンジンにおける開発環境とエージェントのためのオープンソースインタフェースであるgodot強化学習(rl)エージェントを提案する。
Godot RL Agentsインターフェースは、さまざまなオンラインおよびオフラインのDeep RLアルゴリズムを使用して、2Dおよび3D環境に挑戦するエージェントの動作の設計、生成、学習を可能にする。
Ray RLlibとStable Baselines RLフレームワークで学習するためのラッパーを備えた標準のGymインターフェースを提供する。
これにより、ユーザは20以上の最先端のオン・ポリシー、オフ・ポリシー、マルチエージェントrlアルゴリズムにアクセスできる。
このフレームワークは、研究者やゲームデザイナーが離散的で連続的で混合したアクションスペースを持つ環境を作成できる汎用的なツールである。
インターフェースは比較的高性能で、ハイエンドラップトップコンピュータでは4つのcpuコア上で1秒間に1kインタラクションを行う。
概要ビデオはこちら。 https://youtu.be/g1MlZSFQIj4
関連論文リスト
- Kinetix: Investigating the Training of General Agents through Open-Ended Physics-Based Control Tasks [3.479490713357225]
我々は、何千万もの2次元物理に基づくタスクを手続き的に生成し、それらを物理制御のための一般強化学習(RL)エージェントの訓練に使用する。
Kinetixは物理ベースのRL環境のオープンエンドスペースで、ロボットの移動やグリップからビデオゲームや古典的なRL環境まで、さまざまなタスクを表現できる。
我々の訓練されたエージェントは強力な物理的推論能力を示し、目に見えない人間が設計した環境をゼロショットで解決することができる。
論文 参考訳(メタデータ) (2024-10-30T16:59:41Z) - A Benchmark Environment for Offline Reinforcement Learning in Racing Games [54.83171948184851]
オフライン強化学習(英語: Offline Reinforcement Learning、ORL)は、従来の強化学習(RL)の高サンプリング複雑さを減らすための有望なアプローチである。
本稿では,ORL研究のための新しい環境であるOfflineManiaを紹介する。
TrackManiaシリーズにインスパイアされ、Unity 3Dゲームエンジンで開発された。
論文 参考訳(メタデータ) (2024-07-12T16:44:03Z) - Centralized control for multi-agent RL in a complex Real-Time-Strategy
game [0.0]
マルチエージェント強化学習(MARL)は、共有環境で共存する複数の学習エージェントの行動を研究する。
MARLはシングルエージェントRLよりも難しい。
このプロジェクトは、Lux AI v2 KaggleコンペティションにRLを適用したエンドツーエンドエクスペリエンスを提供する。
論文 参考訳(メタデータ) (2023-04-25T17:19:05Z) - JORLDY: a fully customizable open source framework for reinforcement
learning [3.1864456096282696]
強化学習(Reinforcement Learning, RL)は、学術分野と産業分野の両方で活発に研究されている。
JORLDYは、Pytorchで実装された20以上の広く使われているRLアルゴリズムを提供する。
JORLDYはOpenAIジム、Unity ML-Agents、Mujoco、Super Mario Bros、Procgenなど、複数のRL環境をサポートしている。
論文 参考訳(メタデータ) (2022-04-11T06:28:27Z) - ElegantRL-Podracer: Scalable and Elastic Library for Cloud-Native Deep
Reinforcement Learning [141.58588761593955]
クラウドネイティブな深層強化学習のためのライブラリElegantRL-podracerを提案する。
数百万のコアを効率的にサポートし、複数のレベルで大規模な並列トレーニングを実行する。
低レベルでは、各ポッドは1つのGPUで7,000近いGPUコアをフル活用することで、エージェントと環境のインタラクションを並列にシミュレートする。
論文 参考訳(メタデータ) (2021-12-11T06:31:21Z) - Architecting and Visualizing Deep Reinforcement Learning Models [77.34726150561087]
深層強化学習(Deep Reinforcement Learning, DRL)は、コンピュータが相互にコミュニケーションする方法を教えることを目的とした理論である。
本稿では,新しいAtari Pongゲーム環境,ポリシーグラデーションに基づくDRLモデル,リアルタイムネットワーク可視化,そしてDRL推論の直観と認識を構築するためのインタラクティブディスプレイを提案する。
論文 参考訳(メタデータ) (2021-12-02T17:48:26Z) - MetaDrive: Composing Diverse Driving Scenarios for Generalizable
Reinforcement Learning [25.191567110519866]
我々は,強化学習アルゴリズムの研究のために,MetaDriveと呼ばれる新しい運転シミュレーションプラットフォームを開発した。
MetaDriveをベースとして、シングルエージェントとマルチエージェントの両方の設定でさまざまなRLタスクとベースラインを構築します。
論文 参考訳(メタデータ) (2021-09-26T18:34:55Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z) - Forgetful Experience Replay in Hierarchical Reinforcement Learning from
Demonstrations [55.41644538483948]
本稿では,複雑な視覚環境において,エージェントが低品質な実演を行えるようにするためのアプローチの組み合わせを提案する。
提案した目標指向のリプレイバッファ構築により,エージェントはデモにおいて複雑な階層的タスクを解くためのサブゴールを自動的に強調することができる。
私たちのアルゴリズムに基づくこのソリューションは、有名なMineRLコンペティションのすべてのソリューションを破り、エージェントがMinecraft環境でダイヤモンドをマイニングすることを可能にする。
論文 参考訳(メタデータ) (2020-06-17T15:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。