論文の概要: Predicting Game Engagement and Difficulty Using AI Players
- arxiv url: http://arxiv.org/abs/2107.12061v1
- Date: Mon, 26 Jul 2021 09:31:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 15:54:51.505711
- Title: Predicting Game Engagement and Difficulty Using AI Players
- Title(参考訳): AIプレイヤーを用いたゲームエンゲージメントと難易度予測
- Authors: Shaghayegh Roohi and Christian Guckelsberger and Asko Relas and Henri
Heiskanen and Jari Takatalo and Perttu H\"am\"al\"ainen
- Abstract要約: 本稿では,人間のプレイヤの行動と経験を予測するための自動プレイテスト手法を提案する。
これまで,Deep Reinforcement Learningゲームプレイングエージェントがゲーム難易度とプレイヤーエンゲージメントの両方を予測することが実証されてきた。
モンテカルロ木探索(MCTS)によるDRL向上によるこのアプローチの改善
- 参考スコア(独自算出の注目度): 3.0501851690100277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel approach to automated playtesting for the
prediction of human player behavior and experience. It has previously been
demonstrated that Deep Reinforcement Learning (DRL) game-playing agents can
predict both game difficulty and player engagement, operationalized as average
pass and churn rates. We improve this approach by enhancing DRL with Monte
Carlo Tree Search (MCTS). We also motivate an enhanced selection strategy for
predictor features, based on the observation that an AI agent's best-case
performance can yield stronger correlations with human data than the agent's
average performance. Both additions consistently improve the prediction
accuracy, and the DRL-enhanced MCTS outperforms both DRL and vanilla MCTS in
the hardest levels. We conclude that player modelling via automated playtesting
can benefit from combining DRL and MCTS. Moreover, it can be worthwhile to
investigate a subset of repeated best AI agent runs, if AI gameplay does not
yield good predictions on average.
- Abstract(参考訳): 本稿では,プレイヤーの行動と経験の予測のための自動プレイテスティング手法を提案する。
ゲームプレイングエージェントは、ゲーム難易度とプレイヤーエンゲージメントの両方を予測でき、平均パスとチャーンレートとして動作可能であることがこれまで実証されてきた。
我々は,モンテカルロ木探索(MCTS)によるDRLの向上により,このアプローチを改善した。
また,AIエージェントのベストケース性能が,エージェントの平均性能よりも強い相関関係が得られるという観察に基づいて,予測機能の選択戦略の強化も動機付けている。
どちらの追加も予測精度を常に改善し、DRL強化MCTSはDRLとバニラMCTSを最も高い水準で上回る。
自動プレイテストによるプレイヤーモデリングはDRLとMCTSを組み合わせることで有効である。
さらに、AIゲームプレイが平均的に良い予測を得られなければ、繰り返し行われる最高のAIエージェントの実行のサブセットを調べることにも価値がある。
関連論文リスト
- Reinforcing Competitive Multi-Agents for Playing So Long Sucker [0.393259574660092]
本稿では,戦略ゲームSo Long Suckerにおける古典的深層学習(DRL)アルゴリズム,DQN,DDQN,Dueling DQNの使用について検討する。
研究の第一の目的は、古典的なDRL手法を用いて、ゲームのルールと戦略を自律エージェントに教えることである。
論文 参考訳(メタデータ) (2024-11-17T12:38:13Z) - Scaling Offline Model-Based RL via Jointly-Optimized World-Action Model Pretraining [49.730897226510095]
我々は,60億のトークンデータを持つアタリゲーム上で事前訓練されたオフラインモデルベースRLエージェントであるJOWA: Jointly-Reinforceed World-Action Modelを紹介する。
われわれの最大のエージェントは、1億5000万のパラメータを持ち、10%のサブサンプルオフラインデータだけで事前トレーニングされたゲーム上での人間レベルのパフォーマンス78.9%で、既存の最先端の大規模なオフラインRLベースラインを31.6%上回っている。
論文 参考訳(メタデータ) (2024-10-01T10:25:03Z) - Toward Optimal LLM Alignments Using Two-Player Games [86.39338084862324]
本稿では,対戦相手と防御エージェントの反復的相互作用を含む2エージェントゲームのレンズによるアライメントについて検討する。
この反復的強化学習最適化がエージェントによって誘導されるゲームに対するナッシュ平衡に収束することを理論的に実証する。
安全シナリオにおける実験結果から、このような競争環境下での学習は、完全に訓練するエージェントだけでなく、敵エージェントと防御エージェントの両方に対する一般化能力の向上したポリシーにつながることが示されている。
論文 参考訳(メタデータ) (2024-06-16T15:24:50Z) - Behavioural Cloning in VizDoom [1.4999444543328293]
本稿では,Imitation Learning (IL) による自律エージェントのゲーム「Doom 2」の学習方法について述べる。
また,Reinforcement Learning (RL) がカメラの動きと軌跡データを比較することで,人間性に対するILとの比較を行う。
論文 参考訳(メタデータ) (2024-01-08T16:15:43Z) - Minimax Exploiter: A Data Efficient Approach for Competitive Self-Play [12.754819077905061]
Minimax Exploiterは、敵の知識を活用するメインエージェントを利用するゲーム理論のアプローチである。
簡単なターンベースゲームやアーケード学習環境,現代的なビデオゲームであるFor Honorなど,さまざまな設定でアプローチを検証する。
論文 参考訳(メタデータ) (2023-11-28T19:34:40Z) - Mastering the Game of No-Press Diplomacy via Human-Regularized
Reinforcement Learning and Planning [95.78031053296513]
ノープレス外交(No-press Diplomacy)は、協力と競争の両方を含む複雑な戦略ゲームである。
我々は、人間の模倣学習ポリシーに対する報酬最大化ポリシーを規則化する、DiL-piKLと呼ばれる計画アルゴリズムを導入する。
RL-DiL-piKLと呼ばれる自己再生強化学習アルゴリズムに拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T14:47:35Z) - Retrieval-Augmented Reinforcement Learning [63.32076191982944]
過去の経験のデータセットを最適な行動にマップするために、ネットワークをトレーニングします。
検索プロセスは、現在のコンテキストで有用なデータセットから情報を取得するために訓練される。
検索強化R2D2はベースラインR2D2エージェントよりもかなり高速に学習し,より高いスコアを得ることを示す。
論文 参考訳(メタデータ) (2022-02-17T02:44:05Z) - TiKick: Toward Playing Multi-agent Football Full Games from Single-agent
Demonstrations [31.596018856092513]
Tikickは、マルチエージェントのGoogle Research Footballのフルゲームを引き継ぐことができる、学習ベースのAIシステムである。
私たちの知る限りでは、Tikickは、マルチエージェントのGoogle Research Footballのフルゲームを引き継ぐことができる、初めての学習ベースのAIシステムだ。
論文 参考訳(メタデータ) (2021-10-09T08:34:58Z) - Multi-Agent Collaboration via Reward Attribution Decomposition [75.36911959491228]
本稿では,StarCraftのマルチエージェントチャレンジにおいて,最先端のパフォーマンスを実現するコラボレーション型Q-ラーニング(CollaQ)を提案する。
CollaQは様々なStarCraft属性マップで評価され、既存の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-16T17:42:11Z) - Predicting Game Difficulty and Churn Without Players [0.0]
そこで本研究では,Angry Birds Dream Blastのレベルごとのチャーンとパスレートを予測できる新しいシミュレーションモデルを提案する。
本研究は,DRLゲームプレイによって生成されるプレイヤー行動予測が,個体群レベルでの個体差のシミュレーションによっても大幅に向上できることを実証する。
論文 参考訳(メタデータ) (2020-08-29T08:37:47Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。