論文の概要: Reinforcement Learning Agents for Ubisoft's Roller Champions
- arxiv url: http://arxiv.org/abs/2012.06031v1
- Date: Thu, 10 Dec 2020 23:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 07:15:26.137318
- Title: Reinforcement Learning Agents for Ubisoft's Roller Champions
- Title(参考訳): Ubisoftのローラーチャンピオンのための強化学習エージェント
- Authors: Nancy Iskander, Aurelien Simoni, Eloi Alonso, Maxim Peter
- Abstract要約: 楕円形のスケート場でプレイする3v3コンペティティブマルチプレイヤースポーツゲーム「Ubisoft's Roller Champions」のRLシステムを紹介します。
私たちのシステムは,ゲームプレイの変更に伴って新しいモデルをトレーニングするために1~4日を要し,アジャイルで迅速な開発に追随するように設計されています。
我々はAIが高度な協調戦略を開発し、ボーナスとしてゲームのバランスをとるのに役立つことを観察する。
- 参考スコア(独自算出の注目度): 0.26249027950824505
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In recent years, Reinforcement Learning (RL) has seen increasing popularity
in research and popular culture. However, skepticism still surrounds the
practicality of RL in modern video game development. In this paper, we
demonstrate by example that RL can be a great tool for Artificial Intelligence
(AI) design in modern, non-trivial video games. We present our RL system for
Ubisoft's Roller Champions, a 3v3 Competitive Multiplayer Sports Game played on
an oval-shaped skating arena. Our system is designed to keep up with agile,
fast-paced development, taking 1--4 days to train a new model following
gameplay changes. The AIs are adapted for various game modes, including a 2v2
mode, a Training with Bots mode, in addition to the Classic game mode where
they replace players who have disconnected. We observe that the AIs develop
sophisticated co-ordinated strategies, and can aid in balancing the game as an
added bonus. Please see the accompanying video at https://vimeo.com/466780171
(password: rollerRWRL2020) for examples.
- Abstract(参考訳): 近年、強化学習(RL)は研究や大衆文化で人気が高まっている。
しかし、懐疑論は現代のビデオゲーム開発におけるRLの実用性を取り巻くものである。
本稿では,現代,非自明なビデオゲームにおいて,RLが人工知能(AI)設計の優れたツールとなることを実例で示す。
我々は,オバル型スケート競技場での3v3対戦型スポーツゲームであるubisofts roller championsに対して,rlシステムを提案する。
私たちのシステムは,ゲームプレイの変更に伴って新しいモデルをトレーニングするために1~4日を要し,アジャイルで迅速な開発に追随するように設計されています。
AIは2v2モード、ボットモードでのトレーニング、そして非接続のプレイヤーを置き換えるクラシックゲームモードなど様々なゲームモードに対応している。
我々はAIが高度な協調戦略を開発し、ボーナスとしてゲームのバランスをとるのに役立つことを観察する。
関連動画はhttps://vimeo.com/466780171 (password: rollerRWRL2020)でご覧ください。
関連論文リスト
- Training Interactive Agent in Large FPS Game Map with Rule-enhanced Reinforcement Learning [10.637376058491224]
我々はTencent Gamesが開発したオンラインマルチプレイヤー競争型3D FPSゲームであるArena BreakoutにおけるゲームAIの実践的展開に焦点を当てた。
本稿では,大規模なゲームマップ内で対話可能なゲームAIシステムとして,PMCA(Private Military Company Agent)を提案する。
現代の3D FPSゲームにおけるナビゲーションと戦闘の課題に対処するために,ナビゲーションメッシュ(Navmesh)とシューティングルールと深部強化学習(NSRL)を組み合わせた手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T11:27:45Z) - Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Automated Play-Testing Through RL Based Human-Like Play-Styles
Generation [0.0]
強化学習は、ビデオゲームのテストを自動化する必要性に対する有望な答えである。
CARMI: aを提示します。
入力として相対測度を持つエージェント。
以前は目に見えないレベルであっても、プレイヤーのプレースタイルをエミュレートできるエージェント。
論文 参考訳(メタデータ) (2022-11-29T14:17:20Z) - Configurable Agent With Reward As Input: A Play-Style Continuum
Generation [0.0]
複数のプレイスタイルを定義するためのゲーム環境を提案する。
次に、幅広いプレイスタイルをシミュレートできる強化学習エージェントであるCARIを紹介する。
論文 参考訳(メタデータ) (2022-11-29T13:59:25Z) - DanZero: Mastering GuanDan Game with Reinforcement Learning [121.93690719186412]
カードゲームAIは、人工知能の研究において常にホットな話題となっている。
本稿では,より複雑なカードゲームであるGuanDanのためのAIプログラムの開発に専念する。
そこで我々は,強化学習技術を用いたGuanDanのためのAIプログラムDanZeroを提案する。
論文 参考訳(メタデータ) (2022-10-31T06:29:08Z) - Mastering the Game of No-Press Diplomacy via Human-Regularized
Reinforcement Learning and Planning [95.78031053296513]
ノープレス外交(No-press Diplomacy)は、協力と競争の両方を含む複雑な戦略ゲームである。
我々は、人間の模倣学習ポリシーに対する報酬最大化ポリシーを規則化する、DiL-piKLと呼ばれる計画アルゴリズムを導入する。
RL-DiL-piKLと呼ばれる自己再生強化学習アルゴリズムに拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T14:47:35Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - Towards Playing Full MOBA Games with Deep Reinforcement Learning [34.153341961273554]
MOBAゲーム(Honor of Kings、League of Legends、Dota 2など)はAIシステムに大きな課題をもたらす。
そこで本研究では,MOBAAI学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-11-25T12:52:33Z) - Enhanced Rolling Horizon Evolution Algorithm with Opponent Model
Learning: Results for the Fighting Game AI Competition [9.75720700239984]
本稿では,RHEA(Rolling Horizon Evolution Algorithm)と対向モデル学習を組み合わせた新しいアルゴリズムを提案する。
2019年の競争で上位5つのボットのうち、モンテカルロツリーサーチ(MCTS)を使用しないボットは、ポリシーグラディエントベースの対戦モデルによるボットのみである。
論文 参考訳(メタデータ) (2020-03-31T04:44:33Z) - Suphx: Mastering Mahjong with Deep Reinforcement Learning [114.68233321904623]
我々は、新たに導入されたいくつかの技術を用いた深層強化学習に基づいて、Suphxという名のマフジョンのためのAIを設計する。
Suphxは、安定したランクの点で、ほとんどのトップの人間プレイヤーよりも強いパフォーマンスを示している。
コンピュータプログラムがマヒョンで最上位の人間プレイヤーを上回るのは、これが初めてである。
論文 参考訳(メタデータ) (2020-03-30T16:18:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。