論文の概要: On the Verge of Solving Rocket League using Deep Reinforcement Learning
and Sim-to-sim Transfer
- arxiv url: http://arxiv.org/abs/2205.05061v1
- Date: Tue, 10 May 2022 17:37:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-14 10:31:55.773382
- Title: On the Verge of Solving Rocket League using Deep Reinforcement Learning
and Sim-to-sim Transfer
- Title(参考訳): 深部強化学習とSim-to-sim転送を用いたロケットリーグの解法について
- Authors: Marco Pleines, Konstantin Ramthun, Yannik Wegener, Hendrik Meyer,
Matthias Pallasch, Sebastian Prior, Jannik Dr\"ogem\"uller, Leon
B\"uttinghaus, Thilo R\"othemeyer, Alexander Kaschwig, Oliver Chmurzynski,
Frederik Rohkr\"ahmer, Roman Kalkreuth, Frank Zimmer, Mike Preuss
- Abstract要約: この研究は、ロボット工学で確立された第3の方法、すなわちsim-to-realトランスファーを探求する。
Rocket Leagueの場合、Deep Reinforcement Learningを用いてゴールキーパーとストライカーの単一動作を学習できることを実証する。
- 参考スコア(独自算出の注目度): 42.87143421242222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomously trained agents that are supposed to play video games reasonably
well rely either on fast simulation speeds or heavy parallelization across
thousands of machines running concurrently. This work explores a third way that
is established in robotics, namely sim-to-real transfer, or if the game is
considered a simulation itself, sim-to-sim transfer. In the case of Rocket
League, we demonstrate that single behaviors of goalies and strikers can be
successfully learned using Deep Reinforcement Learning in the simulation
environment and transferred back to the original game. Although the implemented
training simulation is to some extent inaccurate, the goalkeeping agent saves
nearly 100% of its faced shots once transferred, while the striking agent
scores in about 75% of cases. Therefore, the trained agent is robust enough and
able to generalize to the target domain of Rocket League.
- Abstract(参考訳): 自律的に訓練されたエージェントは、高速なシミュレーション速度か、同時に実行される何千ものマシンの重い並列化に依存する。
この研究は、ロボット工学で確立された第3の方法、すなわちsim-to-real transfer、またはゲーム自体がシミュレーションであると見なされる場合のsim-to-sim transferを探求する。
rocket leagueの場合、ゴールキーパーとストライカーの単一行動がシミュレーション環境で深層強化学習を用いてうまく学習でき、元のゲームに戻せることを実証する。
実施したトレーニングシミュレーションはある程度不正確であるが、ゴールキーピングエージェントは一度転送されたショットの100%近くを保存し、打撃剤は75%のケースでスコアを付ける。
したがって、訓練されたエージェントは十分に頑健であり、ロケットリーグのターゲットドメインに一般化することができる。
- 全文 参考訳へのリンク
関連論文リスト
- Distilled Domain Randomization [23.178141671320436]
本稿では,無作為な物理シミュレーションからの強化学習と政策蒸留を組み合わせることを提案する。
我々のアルゴリズムはDistilled Domain Randomization (DiDoR)と呼ばれ、ドメインの専門家であるいわゆる教師ポリシーを蒸留する。
このようにして、DiDoRは、ターゲットドメインからのデータを必要とせずに、シミュレーションから現実へ直接移行するコントローラを学習する。
論文 参考訳(メタデータ) (2021-12-06T16:35:08Z) - Robot Learning from Randomized Simulations: A Review [59.992761565399185]
ディープラーニングがロボティクス研究のパラダイムシフトを引き起こし、大量のデータを必要とする方法が好まれている。
最先端のアプローチは、データ生成が高速かつ安価であるシミュレーションで学ぶ。
本稿では,ランダム化シミュレーションから学習する手法である「領域ランダム化」に焦点をあてる。
論文 参考訳(メタデータ) (2021-11-01T13:55:41Z) - Monolithic vs. hybrid controller for multi-objective Sim-to-Real
learning [58.32117053812925]
シミュレーション・トゥ・リアル(Sim-to-Real)はロボット作業のためのコントローラを構築するための魅力的なアプローチである。
本研究では,ロボットマニピュレータの多目的設定における2つのアプローチを比較し,障害物を避けながら目標に到達する方法を提案する。
この結果から,ハイブリッドコントローラのトレーニングが簡単で,モノリシックコントローラよりも優れた成功と失敗のトレードオフが得られることがわかった。
論文 参考訳(メタデータ) (2021-08-17T09:02:33Z) - Megaverse: Simulating Embodied Agents at One Million Experiences per
Second [75.1191260838366]
私たちは、強化学習と具体化AI研究のための新しい3DシミュレーションプラットフォームであるMegaverseを紹介します。
MegaverseはDeepMind Labより最大70倍速い。
私たちはMegaverseを使って、複数の単一エージェントタスクとマルチエージェントタスクからなる新しいベンチマークを構築します。
論文 参考訳(メタデータ) (2021-07-17T03:16:25Z) - Combining Off and On-Policy Training in Model-Based Reinforcement
Learning [77.34726150561087]
MuZeroのシミュレートゲームから得られたデータを用いて、オフポリシターゲットの取得方法を提案する。
以上の結果から,これらの目標がトレーニングプロセスのスピードアップと,より高速な収束とより高い報酬につながることが示唆された。
論文 参考訳(メタデータ) (2021-02-24T10:47:26Z) - TrafficSim: Learning to Simulate Realistic Multi-Agent Behaviors [74.67698916175614]
リアル交通シミュレーションのためのマルチエージェント行動モデルであるTrafficSimを提案する。
特に、暗黙の潜在変数モデルを利用して、共同アクターポリシーをパラメータ化する。
TrafficSimは、多様なベースラインと比較して、より現実的で多様なトラフィックシナリオを生成します。
論文 参考訳(メタデータ) (2021-01-17T00:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。