論文の概要: Deep Reinforcement Learning for Navigation in AAA Video Games
- arxiv url: http://arxiv.org/abs/2011.04764v2
- Date: Tue, 17 Nov 2020 19:09:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 00:35:10.806607
- Title: Deep Reinforcement Learning for Navigation in AAA Video Games
- Title(参考訳): AAAゲームにおけるナビゲーションのための深層強化学習
- Authors: Eloi Alonso, Maxim Peter, David Goumard, Joshua Romoff
- Abstract要約: ビデオゲームでは、プレイヤーの体験を高めるために非プレイヤーキャラクター(NPC)が使用される。
ビデオゲーム業界におけるNPCナビゲーションの最も一般的なアプローチは、ナビゲーションメッシュ(NavMesh)を使用することである。
本稿では,Deep Reinforcement Learning (Deep RL) を用いて,任意のナビゲーション能力を用いて3Dマップのナビゲート方法を学ぶことを提案する。
- 参考スコア(独自算出の注目度): 7.488317734152585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In video games, non-player characters (NPCs) are used to enhance the players'
experience in a variety of ways, e.g., as enemies, allies, or innocent
bystanders. A crucial component of NPCs is navigation, which allows them to
move from one point to another on the map. The most popular approach for NPC
navigation in the video game industry is to use a navigation mesh (NavMesh),
which is a graph representation of the map, with nodes and edges indicating
traversable areas. Unfortunately, complex navigation abilities that extend the
character's capacity for movement, e.g., grappling hooks, jetpacks,
teleportation, or double-jumps, increases the complexity of the NavMesh, making
it intractable in many practical scenarios. Game designers are thus constrained
to only add abilities that can be handled by a NavMesh if they want to have NPC
navigation. As an alternative, we propose to use Deep Reinforcement Learning
(Deep RL) to learn how to navigate 3D maps using any navigation ability. We
test our approach on complex 3D environments in the Unity game engine that are
notably an order of magnitude larger than maps typically used in the Deep RL
literature. One of these maps is directly modeled after a Ubisoft AAA game. We
find that our approach performs surprisingly well, achieving at least $90\%$
success rate on all tested scenarios. A video of our results is available at
https://youtu.be/WFIf9Wwlq8M.
- Abstract(参考訳): ビデオゲームでは、非プレイヤーキャラクター(NPC)は、敵、同盟国、無実の傍観者など、様々な方法でプレイヤーの経験を高めるために使用される。
NPCの重要なコンポーネントはナビゲーションであり、マップ上のあるポイントから別のポイントへ移動することができる。
ビデオゲーム業界におけるNPCナビゲーションの最も一般的なアプローチは、地図のグラフ表現であるナビゲーションメッシュ(NavMesh)を使用することである。
不幸なことに、フック、ジェットパック、テレポーテーション、ダブルジャンプなどのキャラクタの移動能力を拡張する複雑なナビゲーション能力は、navmeshの複雑さを増加させ、多くの実用的なシナリオでは役に立たない。
したがって、ゲームデザイナーは、NPCナビゲーションが必要な場合、NavMeshで処理できる機能のみを追加することを制約される。
その代替として,Deep Reinforcement Learning (Deep RL) を用いて,任意のナビゲーション能力を用いて3Dマップのナビゲート方法を学ぶことを提案する。
私たちは、複雑な3d環境におけるunityゲームエンジンのアプローチをテストしています。
これらのマップの1つは、Ubisoft AAAゲームを直接モデル化している。
当社のアプローチは驚くほどうまく機能し、すべてのテストシナリオで少なくとも90\%の成功率を実現しています。
結果のビデオはhttps://youtu.be/wfif9wwlq8mで閲覧できます。
関連論文リスト
- Training Interactive Agent in Large FPS Game Map with Rule-enhanced Reinforcement Learning [10.637376058491224]
我々はTencent Gamesが開発したオンラインマルチプレイヤー競争型3D FPSゲームであるArena BreakoutにおけるゲームAIの実践的展開に焦点を当てた。
本稿では,大規模なゲームマップ内で対話可能なゲームAIシステムとして,PMCA(Private Military Company Agent)を提案する。
現代の3D FPSゲームにおけるナビゲーションと戦闘の課題に対処するために,ナビゲーションメッシュ(Navmesh)とシューティングルールと深部強化学習(NSRL)を組み合わせた手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T11:27:45Z) - Hyp2Nav: Hyperbolic Planning and Curiosity for Crowd Navigation [58.574464340559466]
我々は,群集ナビゲーションを実現するための双曲学習を提唱し,Hyp2Navを紹介した。
Hyp2Navは双曲幾何学の本質的な性質を活用し、ナビゲーションタスクにおける意思決定プロセスの階層的性質をよりよく符号化する。
本稿では, 効果的なソーシャルナビゲーション, 最高の成功率, 複数シミュレーション設定におけるリターンをもたらす, 双曲型ポリシーモデルと双曲型好奇性モジュールを提案する。
論文 参考訳(メタデータ) (2024-07-18T14:40:33Z) - CityNav: Language-Goal Aerial Navigation Dataset with Geographic Information [25.51740922661166]
ビジョン・アンド・ランゲージナビゲーション(VLN)は、視覚的および言語的手がかりを統合することで、現実の環境を通して自律的なエージェントを誘導することを目的としている。
実都市の3次元環境における言語誘導型航法用に明示的に設計された新しいデータセットであるCityNavを紹介する。
CityNavは、新たに開発されたWebベースの3Dシミュレータを通じて収集された、人間の実証軌道と組み合わせた32kの自然言語記述で構成されている。
論文 参考訳(メタデータ) (2024-06-20T12:08:27Z) - GaussNav: Gaussian Splatting for Visual Navigation [92.13664084464514]
インスタンスイメージゴールナビゲーション(IIN)では、エージェントが探索されていない環境で、目標画像に描かれた特定のオブジェクトを見つける必要がある。
我々のフレームワークは3次元ガウススプラッティングに基づく新しい地図表現を構築する(3DGS)
我々のフレームワークは、Habitat-Matterport 3D(HM3D)データセットに挑戦するPath Length(SPL)が0.252から0.578に重み付けしたSuccessの増加によって証明された、パフォーマンスの著しい飛躍を示す。
論文 参考訳(メタデータ) (2024-03-18T09:56:48Z) - Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - Go-Explore Complex 3D Game Environments for Automated Reachability
Testing [4.322647881761983]
本稿では,強力な探索アルゴリズムであるGo-Exploreに基づいて,シミュレーションされた3次元環境における到達性バグを対象とするアプローチを提案する。
Go-Exploreはマップ全体でユニークなチェックポイントを保存し、そこから探索する有望なチェックポイントを特定する。
我々のアルゴリズムは1台のマシンで10時間以内に1.5km x 1.5kmのゲーム世界を完全にカバーできる。
論文 参考訳(メタデータ) (2022-09-01T16:31:37Z) - CCPT: Automatic Gameplay Testing and Validation with
Curiosity-Conditioned Proximal Trajectories [65.35714948506032]
Curiosity-Conditioned Proximal Trajectories (CCPT)法は、好奇心と模倣学習を組み合わせてエージェントを訓練して探索する。
CCPTが複雑な環境を探索し、ゲームプレイの問題を発見し、その過程におけるデザインの監視を行い、それらをゲームデザイナーに直接認識し、強調する方法について説明する。
論文 参考訳(メタデータ) (2022-02-21T09:08:33Z) - Graph augmented Deep Reinforcement Learning in the GameRLand3D
environment [11.03710870581386]
強化学習で訓練された低レベルポリシーとグラフに基づく高レベル古典プランナを組み合わせたハイブリッド手法を提案する。
本研究では,広範囲な環境下でのエンドツーエンドの深部RLアプローチの限界を定量的に検証する。
また、新しいベンチマークである"GameRLand3D"を導入し、間もなくリリースされる環境では、ナビゲーションタスクのための複雑な手続き型3Dマップを生成することができる。
論文 参考訳(メタデータ) (2021-12-22T08:48:00Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z) - Improving Target-driven Visual Navigation with Attention on 3D Spatial
Relationships [52.72020203771489]
3次元屋内シーンにおける深部強化学習(DRL)を用いた目標駆動型視覚ナビゲーションについて検討した。
提案手法は視覚特徴と3次元空間表現を組み合わせてナビゲーションポリシーを学習する。
AI2-THORで実施した我々の実験は、SRとSPLの指標において、モデルがベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T08:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。