論文の概要: Lucy-SKG: Learning to Play Rocket League Efficiently Using Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2305.15801v1
- Date: Thu, 25 May 2023 07:33:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 16:34:29.724691
- Title: Lucy-SKG: Learning to Play Rocket League Efficiently Using Deep
Reinforcement Learning
- Title(参考訳): Lucy-SKG: 深層強化学習を有効活用したロケットリーグの学習
- Authors: Vasileios Moschopoulos, Pantelis Kyriakidis, Aristotelis Lazaridis,
Ioannis Vlahavas
- Abstract要約: 本稿では,Rocket Leagueをサンプル効率でプレイする方法を学習した強化学習ベースのモデルであるLucy-SKGを紹介する。
コントリビューションには、報酬分析と可視化ライブラリの開発、新しいパラメータ化可能な報酬形状関数、補助的ニューラルネットワークなどがある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A successful tactic that is followed by the scientific community for
advancing AI is to treat games as problems, which has been proven to lead to
various breakthroughs. We adapt this strategy in order to study Rocket League,
a widely popular but rather under-explored 3D multiplayer video game with a
distinct physics engine and complex dynamics that pose a significant challenge
in developing efficient and high-performance game-playing agents. In this
paper, we present Lucy-SKG, a Reinforcement Learning-based model that learned
how to play Rocket League in a sample-efficient manner, outperforming by a
notable margin the two highest-ranking bots in this game, namely Necto (2022
bot champion) and its successor Nexto, thus becoming a state-of-the-art agent.
Our contributions include: a) the development of a reward analysis and
visualization library, b) novel parameterizable reward shape functions that
capture the utility of complex reward types via our proposed Kinesthetic Reward
Combination (KRC) technique, and c) design of auxiliary neural architectures
for training on reward prediction and state representation tasks in an
on-policy fashion for enhanced efficiency in learning speed and performance. By
performing thorough ablation studies for each component of Lucy-SKG, we showed
their independent effectiveness in overall performance. In doing so, we
demonstrate the prospects and challenges of using sample-efficient
Reinforcement Learning techniques for controlling complex dynamical systems
under competitive team-based multiplayer conditions.
- Abstract(参考訳): AIを前進させるための科学的なコミュニティに続き成功した戦術は、ゲームに様々なブレークスルーをもたらすことが証明された問題として扱うことである。
この戦略を応用して、Rocket Leagueという物理エンジンと複雑なダイナミクスを備えた、広く普及しているが未開発の3Dマルチプレイヤーゲームの研究を行い、効率的で高性能なゲームプレイングエージェントを開発する上で大きな課題となる。
本稿では,Rucy-SKGについて述べる。このゲームにおける上位2つのボット,すなわちNecto(2022ボットチャンピオン)とその後継者であるNexto(Nexto)よりも優れた成績を収めた,Rocket Leagueのサンプル効率のよいプレイ方法を学習した強化学習ベースモデルである。
私たちの貢献には
a)報酬分析及び可視化ライブラリの開発
b) 提案するキネマティクス報酬組合せ(krc)技術により,複合報酬型の有用性を捉えた新しいパラメータ可能な報酬形状関数,及び
c) 学習速度及び性能の効率化を目的とした、報酬予測及び状態表現タスクの訓練のための補助的ニューラルネットワークの設計。
Lucy-SKGの各成分について徹底的なアブレーション研究を行うことで, 全体としての独立性を示した。
そこで,本研究では,複雑な力学系を制御するためのサンプル効率のよい強化学習手法をチームベースマルチプレイヤー環境下で活用する可能性と課題を実証する。
関連論文リスト
- Reinforcing Competitive Multi-Agents for Playing So Long Sucker [0.393259574660092]
本稿では,戦略ゲームSo Long Suckerにおける古典的深層学習(DRL)アルゴリズム,DQN,DDQN,Dueling DQNの使用について検討する。
研究の第一の目的は、古典的なDRL手法を用いて、ゲームのルールと戦略を自律エージェントに教えることである。
論文 参考訳(メタデータ) (2024-11-17T12:38:13Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Minimax Exploiter: A Data Efficient Approach for Competitive Self-Play [12.754819077905061]
Minimax Exploiterは、敵の知識を活用するメインエージェントを利用するゲーム理論のアプローチである。
簡単なターンベースゲームやアーケード学習環境,現代的なビデオゲームであるFor Honorなど,さまざまな設定でアプローチを検証する。
論文 参考訳(メタデータ) (2023-11-28T19:34:40Z) - Technical Challenges of Deploying Reinforcement Learning Agents for Game
Testing in AAA Games [58.720142291102135]
本稿では,既存の自動ゲームテストソリューションに,スクリプト型ボットをベースとして,実験的な強化学習システムを追加する取り組みについて述べる。
ゲーム制作において強化学習を活用するためのユースケースを示し、ゲームのために同じ旅をしたいと思う人なら誰でも遭遇する最大の時間をカバーしています。
我々は、機械学習、特にゲーム生産において効果的なツールである強化学習を作るのに価値があり、必要であると考えるいくつかの研究指針を提案する。
論文 参考訳(メタデータ) (2023-07-19T18:19:23Z) - DIAMBRA Arena: a New Reinforcement Learning Platform for Research and
Experimentation [91.3755431537592]
本研究は、強化学習研究と実験のための新しいプラットフォームであるDIAMBRA Arenaを提示する。
高品質な環境のコレクションが,OpenAI Gym標準に完全に準拠したPython APIを公開している。
これらは、離散的なアクションと観測を生のピクセルと追加の数値で構成したエピソディックなタスクである。
論文 参考訳(メタデータ) (2022-10-19T14:39:10Z) - TiKick: Toward Playing Multi-agent Football Full Games from Single-agent
Demonstrations [31.596018856092513]
Tikickは、マルチエージェントのGoogle Research Footballのフルゲームを引き継ぐことができる、学習ベースのAIシステムである。
私たちの知る限りでは、Tikickは、マルチエージェントのGoogle Research Footballのフルゲームを引き継ぐことができる、初めての学習ベースのAIシステムだ。
論文 参考訳(メタデータ) (2021-10-09T08:34:58Z) - Human-Level Reinforcement Learning through Theory-Based Modeling,
Exploration, and Planning [27.593497502386143]
理論に基づく強化学習は、人間のような直感的な理論を使って環境を探索しモデル化する。
EMPAと呼ばれるゲームプレイエージェントのアプローチをインスタンス化する。
EMPAは90のAtariスタイルのビデオゲームで人間の学習効率と一致します。
論文 参考訳(メタデータ) (2021-07-27T01:38:13Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Learning to Shape Rewards using a Game of Switching Controls [21.456451774045465]
2つのエージェント間の新しいゲームでシェーピング報酬関数を構築する自動RSフレームワークを紹介します。
我々は,既存のRLアルゴリズムを簡単に適用可能なフレームワークが,タスクに適した整形逆戻り関数を構築することを学ぶことを理論的に証明した。
我々は、Cartpoleの最先端のRSアルゴリズムと挑戦的なコンソールゲームGravitar、Solaris、Super Marioに対する私たちの方法の優れたパフォーマンスを実証します。
論文 参考訳(メタデータ) (2021-03-16T15:56:57Z) - Emergent Real-World Robotic Skills via Unsupervised Off-Policy
Reinforcement Learning [81.12201426668894]
報奨関数を使わずに多様なスキルを習得し,これらのスキルを下流のタスクに再利用する効率的な強化学習手法を開発した。
提案アルゴリズムは学習効率を大幅に向上させ,報酬のない実世界のトレーニングを実現する。
また,学習スキルは,目標指向ナビゲーションのためのモデル予測制御を用いて,追加のトレーニングを伴わずに構成可能であることも実証した。
論文 参考訳(メタデータ) (2020-04-27T17:38:53Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。