論文の概要: A data-driven discretized CS:GO simulation environment to facilitate strategic multi-agent planning research
- arxiv url: http://arxiv.org/abs/2509.06355v1
- Date: Mon, 08 Sep 2025 06:02:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.987818
- Title: A data-driven discretized CS:GO simulation environment to facilitate strategic multi-agent planning research
- Title(参考訳): 戦略的マルチエージェント計画研究を容易にするデータ駆動離散化CS:GOシミュレーション環境
- Authors: Yunzhe Wang, Volkan Ustun, Chris McGroarty,
- Abstract要約: 本稿では,3次元地形における戦略的長期計画を高次離散化シミュレーションに抽象化する,新しいマルチエージェントシミュレータDECOYを提案する。
対決ストライク:Global Offensiveをテストベッドとして、我々のフレームワークは、移動決定のみを戦術的位置決めとして使用して、ゲームプレイを正確にシミュレートする。
- 参考スコア(独自算出の注目度): 1.1765015608581086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern simulation environments for complex multi-agent interactions must balance high-fidelity detail with computational efficiency. We present DECOY, a novel multi-agent simulator that abstracts strategic, long-horizon planning in 3D terrains into high-level discretized simulation while preserving low-level environmental fidelity. Using Counter-Strike: Global Offensive (CS:GO) as a testbed, our framework accurately simulates gameplay using only movement decisions as tactical positioning -- without explicitly modeling low-level mechanics such as aiming and shooting. Central to our approach is a waypoint system that simplifies and discretizes continuous states and actions, paired with neural predictive and generative models trained on real CS:GO tournament data to reconstruct event outcomes. Extensive evaluations show that replays generated from human data in DECOY closely match those observed in the original game. Our publicly available simulation environment provides a valuable tool for advancing research in strategic multi-agent planning and behavior generation.
- Abstract(参考訳): 複雑なマルチエージェント相互作用のための現代的なシミュレーション環境は、高忠実度の詳細と計算効率のバランスをとる必要がある。
我々は,3次元地形における戦略的長期計画を低レベルの環境忠実性を維持しつつ,高レベルの離散化シミュレーションに抽象化する新しいマルチエージェントシミュレータDECOYを提案する。
対決ストライク:グローバル攻撃(CS:GO: Global Offensive)をテストベッドとして使用し,目標やシューティングといった低レベルな機構を明示的にモデル化することなく,移動決定のみを戦術的位置決めとしてゲームプレイを正確にシミュレートする。
我々のアプローチの中心は、実際のCS:GOトーナメントデータに基づいてトレーニングされた神経予測および生成モデルと組み合わせて、イベント結果の再構成を行う、連続状態と動作の簡易化と離散化を行うウェイポイントシステムである。
大規模な評価では、DECYにおける人間のデータから生成されたリプレイは、オリジナルゲームで観測されたリプレイと密接に一致している。
我々の公開シミュレーション環境は、戦略的マルチエージェント計画と行動生成の研究を進めるための貴重なツールを提供する。
関連論文リスト
- Whenever, Wherever: Towards Orchestrating Crowd Simulations with Spatio-Temporal Spawn Dynamics [65.72663487116439]
ニューラル・テンポラル・ポイント・プロセスを用いて生成時間生成ダイナミクスをモデル化するnTPP-GMMを提案する。
我々は,nTPP-GMMを用いた3つの実世界のデータセットのシミュレーションによるアプローチの評価を行った。
論文 参考訳(メタデータ) (2025-03-20T18:46:41Z) - Sim-to-Real Transfer of Deep Reinforcement Learning Agents for Online Coverage Path Planning [22.077058792635313]
被覆経路計画は、制限された地域の自由空間全体をカバーする経路を見つける問題である。
本稿では,この課題に対する連続空間強化学習の有効性について検討する。
提案手法は従来のRLに基づく手法と高度に専門化された手法の両方の性能を上回ることを示す。
論文 参考訳(メタデータ) (2024-06-07T13:24:19Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - Dyna-T: Dyna-Q and Upper Confidence Bounds Applied to Trees [0.9137554315375919]
本稿ではDyna-Tという新しいアルゴリズムについて予備検討する。
強化学習(RL)では、計画エージェントは環境をモデルとして表現する。
より良いモデルを学ぶために、あるいは価値関数とポリシーを直接改善するために、経験を使うことができる。
論文 参考訳(メタデータ) (2022-01-12T15:06:30Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - TrafficSim: Learning to Simulate Realistic Multi-Agent Behaviors [74.67698916175614]
リアル交通シミュレーションのためのマルチエージェント行動モデルであるTrafficSimを提案する。
特に、暗黙の潜在変数モデルを利用して、共同アクターポリシーをパラメータ化する。
TrafficSimは、多様なベースラインと比較して、より現実的で多様なトラフィックシナリオを生成します。
論文 参考訳(メタデータ) (2021-01-17T00:29:30Z) - Learning to Simulate Dynamic Environments with GameGAN [109.25308647431952]
本稿では,エージェントが環境と対話するのを見ることでシミュレーターを学習することを目的とする。
ゲームGANは,学習中にスクリーンプレイやキーボード操作を取り入れることで,所望のゲームを視覚的に模倣することを学習する生成モデルである。
論文 参考訳(メタデータ) (2020-05-25T14:10:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。