論文の概要: On the Verge of Solving Rocket League using Deep Reinforcement Learning
and Sim-to-sim Transfer
- arxiv url: http://arxiv.org/abs/2205.05061v1
- Date: Tue, 10 May 2022 17:37:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-14 10:31:55.773382
- Title: On the Verge of Solving Rocket League using Deep Reinforcement Learning
and Sim-to-sim Transfer
- Title(参考訳): 深部強化学習とSim-to-sim転送を用いたロケットリーグの解法について
- Authors: Marco Pleines, Konstantin Ramthun, Yannik Wegener, Hendrik Meyer,
Matthias Pallasch, Sebastian Prior, Jannik Dr\"ogem\"uller, Leon
B\"uttinghaus, Thilo R\"othemeyer, Alexander Kaschwig, Oliver Chmurzynski,
Frederik Rohkr\"ahmer, Roman Kalkreuth, Frank Zimmer, Mike Preuss
- Abstract要約: この研究は、ロボット工学で確立された第3の方法、すなわちsim-to-realトランスファーを探求する。
Rocket Leagueの場合、Deep Reinforcement Learningを用いてゴールキーパーとストライカーの単一動作を学習できることを実証する。
- 参考スコア(独自算出の注目度): 42.87143421242222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomously trained agents that are supposed to play video games reasonably
well rely either on fast simulation speeds or heavy parallelization across
thousands of machines running concurrently. This work explores a third way that
is established in robotics, namely sim-to-real transfer, or if the game is
considered a simulation itself, sim-to-sim transfer. In the case of Rocket
League, we demonstrate that single behaviors of goalies and strikers can be
successfully learned using Deep Reinforcement Learning in the simulation
environment and transferred back to the original game. Although the implemented
training simulation is to some extent inaccurate, the goalkeeping agent saves
nearly 100% of its faced shots once transferred, while the striking agent
scores in about 75% of cases. Therefore, the trained agent is robust enough and
able to generalize to the target domain of Rocket League.
- Abstract(参考訳): 自律的に訓練されたエージェントは、高速なシミュレーション速度か、同時に実行される何千ものマシンの重い並列化に依存する。
この研究は、ロボット工学で確立された第3の方法、すなわちsim-to-real transfer、またはゲーム自体がシミュレーションであると見なされる場合のsim-to-sim transferを探求する。
rocket leagueの場合、ゴールキーパーとストライカーの単一行動がシミュレーション環境で深層強化学習を用いてうまく学習でき、元のゲームに戻せることを実証する。
実施したトレーニングシミュレーションはある程度不正確であるが、ゴールキーピングエージェントは一度転送されたショットの100%近くを保存し、打撃剤は75%のケースでスコアを付ける。
したがって、訓練されたエージェントは十分に頑健であり、ロケットリーグのターゲットドメインに一般化することができる。
関連論文リスト
- Overcoming the Sim-to-Real Gap: Leveraging Simulation to Learn to Explore for Real-World RL [25.991354823569033]
多くの制度において、直接シム2リアルトランスファーは失敗する可能性があるが、シミュレータを使って一連のエフェクト探索ポリシーを学習できることが示される。
特に、低ランクのMDPの設定においては、これらの探索政策と単純で実践的なアプローチが結合していることが示される。
これは、シミュレーション転送が直接sim2real転送が失敗する環境で強化学習において証明可能な利益をもたらすという最初の証拠である。
論文 参考訳(メタデータ) (2024-10-26T19:12:27Z) - Game Theory with Simulation in the Presence of Unpredictable Randomisation [22.216141581645115]
そこで我々は,あるエージェントが,その混合戦略を学習するために,一方のエージェントが他方のエージェントをシミュレートするために固定費用を支払うことができるゲーム理論の環境で,その問題を研究する。
純粋ストラテジーシミュレーションの先行研究とは対照的に、混合ストラテジーシミュレーションが両プレイヤーに改善をもたらすことはないことを証明した。
我々は,シミュレータが信頼レベルを拡大するオプションがある場合,混合戦略シミュレーションは社会福祉を改善することができることを確認した。
論文 参考訳(メタデータ) (2024-10-18T09:17:18Z) - DrEureka: Language Model Guided Sim-To-Real Transfer [64.14314476811806]
シミュレーションで学んだ政策を現実世界に伝達することは、ロボットのスキルを大規模に獲得する上で有望な戦略である。
本稿では,Large Language Models (LLMs) を用いてシム・トゥ・リアル設計の自動化と高速化を行う。
本手法では,ヨガボールの上を歩行する四足歩行や四足歩行など,新しいロボットタスクを解くことができる。
論文 参考訳(メタデータ) (2024-06-04T04:53:05Z) - Learning Agile Soccer Skills for a Bipedal Robot with Deep Reinforcement Learning [26.13655448415553]
Deep Reinforcement Learning (Deep RL)は、低コストでミニチュアなヒューマノイドロボットのための洗練された安全な運動スキルを合成することができる。
我々はDeep RLを使って、20個の関節を持つヒューマノイドロボットを訓練し、1対1(1v1)のサッカーゲームを単純化した。
結果として得られるエージェントは、急激な転倒回復、歩行、回転、蹴りなど、堅牢でダイナミックな動きのスキルを示す。
論文 参考訳(メタデータ) (2023-04-26T16:25:54Z) - Sim-and-Real Reinforcement Learning for Manipulation: A Consensus-based
Approach [4.684126055213616]
マニピュレータのピック・アンド・プレイスタスクのための,コンセンサスに基づくCSAR(Sim-And-Real Deep reinforcement Learning)アルゴリズムを提案する。
我々はシミュレーターと実世界のエージェントを訓練し、シミュレートと実世界の両方の最適なポリシーを得る。
論文 参考訳(メタデータ) (2023-02-26T22:27:23Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - Combining Off and On-Policy Training in Model-Based Reinforcement
Learning [77.34726150561087]
MuZeroのシミュレートゲームから得られたデータを用いて、オフポリシターゲットの取得方法を提案する。
以上の結果から,これらの目標がトレーニングプロセスのスピードアップと,より高速な収束とより高い報酬につながることが示唆された。
論文 参考訳(メタデータ) (2021-02-24T10:47:26Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z) - Sim-to-Real Transfer for Vision-and-Language Navigation [70.86250473583354]
本研究では,従来は目に見えなかった環境下でロボットを解放し,制約のない自然言語ナビゲーション指示に従うという課題について検討する。
VLN(Vision-and-Language Navigation)の課題に関する最近の研究は、シミュレーションにおいて大きな進歩を遂げている。
ロボット工学における本研究の意義を評価するため,シミュレーションで訓練されたVLNエージェントを物理ロボットに転送する。
論文 参考訳(メタデータ) (2020-11-07T16:49:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。