論文の概要: Deep Reinforcement Learning for Navigation in AAA Video Games
- arxiv url: http://arxiv.org/abs/2011.04764v2
- Date: Tue, 17 Nov 2020 19:09:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 00:35:10.806607
- Title: Deep Reinforcement Learning for Navigation in AAA Video Games
- Title(参考訳): AAAゲームにおけるナビゲーションのための深層強化学習
- Authors: Eloi Alonso, Maxim Peter, David Goumard, Joshua Romoff
- Abstract要約: ビデオゲームでは、プレイヤーの体験を高めるために非プレイヤーキャラクター(NPC)が使用される。
ビデオゲーム業界におけるNPCナビゲーションの最も一般的なアプローチは、ナビゲーションメッシュ(NavMesh)を使用することである。
本稿では,Deep Reinforcement Learning (Deep RL) を用いて,任意のナビゲーション能力を用いて3Dマップのナビゲート方法を学ぶことを提案する。
- 参考スコア(独自算出の注目度): 7.488317734152585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In video games, non-player characters (NPCs) are used to enhance the players'
experience in a variety of ways, e.g., as enemies, allies, or innocent
bystanders. A crucial component of NPCs is navigation, which allows them to
move from one point to another on the map. The most popular approach for NPC
navigation in the video game industry is to use a navigation mesh (NavMesh),
which is a graph representation of the map, with nodes and edges indicating
traversable areas. Unfortunately, complex navigation abilities that extend the
character's capacity for movement, e.g., grappling hooks, jetpacks,
teleportation, or double-jumps, increases the complexity of the NavMesh, making
it intractable in many practical scenarios. Game designers are thus constrained
to only add abilities that can be handled by a NavMesh if they want to have NPC
navigation. As an alternative, we propose to use Deep Reinforcement Learning
(Deep RL) to learn how to navigate 3D maps using any navigation ability. We
test our approach on complex 3D environments in the Unity game engine that are
notably an order of magnitude larger than maps typically used in the Deep RL
literature. One of these maps is directly modeled after a Ubisoft AAA game. We
find that our approach performs surprisingly well, achieving at least $90\%$
success rate on all tested scenarios. A video of our results is available at
https://youtu.be/WFIf9Wwlq8M.
- Abstract(参考訳): ビデオゲームでは、非プレイヤーキャラクター(NPC)は、敵、同盟国、無実の傍観者など、様々な方法でプレイヤーの経験を高めるために使用される。
NPCの重要なコンポーネントはナビゲーションであり、マップ上のあるポイントから別のポイントへ移動することができる。
ビデオゲーム業界におけるNPCナビゲーションの最も一般的なアプローチは、地図のグラフ表現であるナビゲーションメッシュ(NavMesh)を使用することである。
不幸なことに、フック、ジェットパック、テレポーテーション、ダブルジャンプなどのキャラクタの移動能力を拡張する複雑なナビゲーション能力は、navmeshの複雑さを増加させ、多くの実用的なシナリオでは役に立たない。
したがって、ゲームデザイナーは、NPCナビゲーションが必要な場合、NavMeshで処理できる機能のみを追加することを制約される。
その代替として,Deep Reinforcement Learning (Deep RL) を用いて,任意のナビゲーション能力を用いて3Dマップのナビゲート方法を学ぶことを提案する。
私たちは、複雑な3d環境におけるunityゲームエンジンのアプローチをテストしています。
これらのマップの1つは、Ubisoft AAAゲームを直接モデル化している。
当社のアプローチは驚くほどうまく機能し、すべてのテストシナリオで少なくとも90\%の成功率を実現しています。
結果のビデオはhttps://youtu.be/wfif9wwlq8mで閲覧できます。
関連論文リスト
- CoverNav: Cover Following Navigation Planning in Unstructured Outdoor
Environment with Deep Reinforcement Learning [1.0499611180329804]
オフロード地形やジャングル環境における隠蔽およびナビゲート可能な軌道を識別するための,Deep Reinforcement Learning に基づく新しいアルゴリズム CoverNav を提案する。
CoverNavは、ロボットエージェントが報酬関数を使って低い標高の地形を学習するのを助ける。
また,カバーナブの最大目標距離12mと,カバーオブジェクトの有無による異なる標高シナリオにおける成功率について検討した。
論文 参考訳(メタデータ) (2023-08-12T15:19:49Z) - Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - NaviNeRF: NeRF-based 3D Representation Disentanglement by Latent
Semantic Navigation [61.95333838274848]
3D表現のゆがみは、3Dデータの基本的な説明因子を特定し、分解し、操作することを目的としている。
NeRFは生成するNeRFパイプライン上に構築されており、アウターナビゲーションブランチとインナーリファインメントブランチを備えている。
NaviNeRFは、従来の3D対応モデルよりもきめ細かい3Dディスタングル能力が優れている。
論文 参考訳(メタデータ) (2023-04-22T07:48:17Z) - ESceme: Vision-and-Language Navigation with Episodic Scene Memory [75.30999757774639]
ヴィジュアル・アンド・ランゲージ・ナビゲーション(VLN)は、現実世界のシーンで自然言語のナビゲーション指示に従う視覚エージェントをシミュレートする。
本稿では,VLNにおける情景記憶(esceme)のメカニズムについて紹介する。
短距離水平ナビゲーション(R2R)、長距離水平ナビゲーション(R4R)、ビジョン・アンド・ダイアログナビゲーション(CVDN)を含む3つのVLNタスクにおけるEScemeの優位性を検証する。
論文 参考訳(メタデータ) (2023-03-02T07:42:07Z) - Exploring Navigation Maps for Learning-Based Motion Prediction [9.919575841909962]
本稿では,ナビゲーションマップを学習に基づく動き予測モデルに統合するアプローチについて述べる。
われわれのアプローチは、地図をまったく使わないよりも大幅に改善されている。
Argoverse用の公開ナビゲーションマップAPIにより,ナビゲーションマップを用いた独自のアプローチの開発と評価が可能となった。
論文 参考訳(メタデータ) (2023-02-13T09:06:27Z) - Go-Explore Complex 3D Game Environments for Automated Reachability
Testing [4.322647881761983]
本稿では,強力な探索アルゴリズムであるGo-Exploreに基づいて,シミュレーションされた3次元環境における到達性バグを対象とするアプローチを提案する。
Go-Exploreはマップ全体でユニークなチェックポイントを保存し、そこから探索する有望なチェックポイントを特定する。
我々のアルゴリズムは1台のマシンで10時間以内に1.5km x 1.5kmのゲーム世界を完全にカバーできる。
論文 参考訳(メタデータ) (2022-09-01T16:31:37Z) - CCPT: Automatic Gameplay Testing and Validation with
Curiosity-Conditioned Proximal Trajectories [65.35714948506032]
Curiosity-Conditioned Proximal Trajectories (CCPT)法は、好奇心と模倣学習を組み合わせてエージェントを訓練して探索する。
CCPTが複雑な環境を探索し、ゲームプレイの問題を発見し、その過程におけるデザインの監視を行い、それらをゲームデザイナーに直接認識し、強調する方法について説明する。
論文 参考訳(メタデータ) (2022-02-21T09:08:33Z) - Graph augmented Deep Reinforcement Learning in the GameRLand3D
environment [11.03710870581386]
強化学習で訓練された低レベルポリシーとグラフに基づく高レベル古典プランナを組み合わせたハイブリッド手法を提案する。
本研究では,広範囲な環境下でのエンドツーエンドの深部RLアプローチの限界を定量的に検証する。
また、新しいベンチマークである"GameRLand3D"を導入し、間もなくリリースされる環境では、ナビゲーションタスクのための複雑な手続き型3Dマップを生成することができる。
論文 参考訳(メタデータ) (2021-12-22T08:48:00Z) - MultiON: Benchmarking Semantic Map Memory using Multi-Object Navigation [23.877609358505268]
最近の研究は、地図のようなメモリが長距離ナビゲーションタスクに有用であることを示している。
本稿では,実環境において,エピソード特有のオブジェクト列へのナビゲーションを必要とするマルチオンタスクを提案する。
様々なエージェントモデルがナビゲーションタスクの複雑度をまたいでどのように振る舞うかを検討する。
論文 参考訳(メタデータ) (2020-12-07T18:42:38Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z) - Improving Target-driven Visual Navigation with Attention on 3D Spatial
Relationships [52.72020203771489]
3次元屋内シーンにおける深部強化学習(DRL)を用いた目標駆動型視覚ナビゲーションについて検討した。
提案手法は視覚特徴と3次元空間表現を組み合わせてナビゲーションポリシーを学習する。
AI2-THORで実施した我々の実験は、SRとSPLの指標において、モデルがベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T08:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。