論文の概要: Counter-Strike Deathmatch with Large-Scale Behavioural Cloning
- arxiv url: http://arxiv.org/abs/2104.04258v1
- Date: Fri, 9 Apr 2021 09:12:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 14:15:15.859802
- Title: Counter-Strike Deathmatch with Large-Scale Behavioural Cloning
- Title(参考訳): 大規模行動クローンによる逆ストライクデスマッチ
- Authors: Tim Pearce, Jun Zhu
- Abstract要約: 本稿では,FPSゲーム『Counter-Strike; Global Offensive』を画素入力から再生するAIエージェントについて述べる。
ディープニューラルネットワークであるエージェントは、デスマッチゲームモードでのAI内蔵中難易度のパフォーマンスにマッチし、人間のようなプレイスタイルを採用しています。
- 参考スコア(独自算出の注目度): 34.22811814104069
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes an AI agent that plays the popular first-person-shooter
(FPS) video game `Counter-Strike; Global Offensive' (CSGO) from pixel input.
The agent, a deep neural network, matches the performance of the medium
difficulty built-in AI on the deathmatch game mode, whilst adopting a humanlike
play style. Unlike much prior work in games, no API is available for CSGO, so
algorithms must train and run in real-time. This limits the quantity of
on-policy data that can be generated, precluding many reinforcement learning
algorithms. Our solution uses behavioural cloning - training on a large noisy
dataset scraped from human play on online servers (4 million frames, comparable
in size to ImageNet), and a smaller dataset of high-quality expert
demonstrations. This scale is an order of magnitude larger than prior work on
imitation learning in FPS games.
- Abstract(参考訳): 本稿では,fps(first-person-shooter)ゲーム「counter-strike; global offensive」(csgo)をピクセル入力からプレイするaiエージェントについて述べる。
ディープニューラルネットワークであるエージェントは、デスマッチゲームモードにおける中難度aiのパフォーマンスに匹敵し、人間的なプレイスタイルを採用する。
ゲームにおける多くの以前の作業とは異なり、csgoのapiは使用できないため、アルゴリズムはリアルタイムでトレーニングおよび実行する必要がある。
これにより、多くの強化学習アルゴリズムを前提として、生成可能なオンポリシーデータの量を制限することができる。
私たちのソリューションでは,オンラインサーバ上の人間プレイ(イメージネットに匹敵する400万フレーム)から抽出した,大きなノイズの多いデータセットのトレーニングと,高品質な専門家によるデモンストレーションの小さなデータセットを使用しています。
このスケールは、fpsゲームにおける模倣学習の以前の作業よりも桁違いに大きい。
関連論文リスト
- Training Interactive Agent in Large FPS Game Map with Rule-enhanced Reinforcement Learning [10.637376058491224]
我々はTencent Gamesが開発したオンラインマルチプレイヤー競争型3D FPSゲームであるArena BreakoutにおけるゲームAIの実践的展開に焦点を当てた。
本稿では,大規模なゲームマップ内で対話可能なゲームAIシステムとして,PMCA(Private Military Company Agent)を提案する。
現代の3D FPSゲームにおけるナビゲーションと戦闘の課題に対処するために,ナビゲーションメッシュ(Navmesh)とシューティングルールと深部強化学習(NSRL)を組み合わせた手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T11:27:45Z) - Learning to Move Like Professional Counter-Strike Players [22.974835711827293]
CS:GO用の人型モーションコントローラの開発には,データ駆動によるアプローチが可能であることを示す。
我々は、ゲームの「リテイク」ラウンドにおいて、すべてのプレイヤーに対して人間のようなチームの動きを生成するトランスフォーマーベースの運動モデルを訓練する。
我々は,本モデルが単純なチームワークを行い,共通の動作ミスを少なくし,プロのCS:GOと類似した移動分布,プレイヤーの寿命,殺傷位置を得られることを示す。
論文 参考訳(メタデータ) (2024-08-25T20:43:34Z) - Behavioural Cloning in VizDoom [1.4999444543328293]
本稿では,Imitation Learning (IL) による自律エージェントのゲーム「Doom 2」の学習方法について述べる。
また,Reinforcement Learning (RL) がカメラの動きと軌跡データを比較することで,人間性に対するILとの比較を行う。
論文 参考訳(メタデータ) (2024-01-08T16:15:43Z) - Scaling Laws for Imitation Learning in Single-Agent Games [29.941613597833133]
我々は,モデルとデータサイズを慎重にスケールアップすることで,シングルエージェントゲームにおける模倣学習環境に類似した改善がもたらされるかどうかを検討する。
われわれはまずAtariのさまざまなゲームについて実験を行い、その後NetHackの非常に挑戦的なゲームに焦点を当てた。
IL損失と平均戻り値は計算予算とスムーズに一致し,相関関係が強く,計算最適ILエージェントの訓練には電力法則が適用されることがわかった。
論文 参考訳(メタデータ) (2023-07-18T16:43:03Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - Action Recognition using Transfer Learning and Majority Voting for CSGO [0.6875312133832078]
本論文は, 4つの異なる行動の正確な予測モデルを構築し, 5つの異なる伝達学習モデルと, 自己発達した深層ニューラルネットワークの性能を比較することを目的とする。
このモデルにより、HLTVのデータ収集の問題を解決するとともに、より多くのデータを収集・処理する自動システムの構築が容易になる。
論文 参考訳(メタデータ) (2021-11-06T13:33:20Z) - Unsupervised Visual Representation Learning by Tracking Patches in Video [88.56860674483752]
本研究では,コンピュータビジョンシステムのプロキシタスクとしてトラッキングを用いて視覚表現を学習することを提案する。
子どもたちがプレイするキャッチゲームをベースに、視覚表現を学ぶ3D-CNNモデルのためのキャッチ・ザ・パッチ(CtP)ゲームを設計します。
論文 参考訳(メタデータ) (2021-05-06T09:46:42Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Teach me to play, gamer! Imitative learning in computer games via
linguistic description of complex phenomena and decision tree [55.41644538483948]
本稿では,複雑な現象の言語記述に基づく模倣による新しい機械学習モデルを提案する。
この手法は,ゲーム開発における知的エージェントの動作を設計し,実装するための優れた代替手段となる。
論文 参考訳(メタデータ) (2021-01-06T21:14:10Z) - Sample Factory: Egocentric 3D Control from Pixels at 100000 FPS with
Asynchronous Reinforcement Learning [68.2099740607854]
サンプルファクトリー(Sample Factory)は、シングルマシン設定に最適化された高スループットトレーニングシステムである。
我々のアーキテクチャは、非常に効率的で非同期なGPUベースのサンプリングと、オフポリシー補正技術を組み合わせています。
我々は,Sample Factoryを拡張して,セルフプレイと人口ベーストレーニングをサポートし,これらのテクニックを多人数一対一シューティングゲームのための高度なエージェントの訓練に応用する。
論文 参考訳(メタデータ) (2020-06-21T10:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。