論文の概要: Testing match-3 video games with Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2007.01137v2
- Date: Tue, 24 Nov 2020 11:30:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:31:30.021944
- Title: Testing match-3 video games with Deep Reinforcement Learning
- Title(参考訳): 深層強化学習によるmatch-3ビデオゲームのテスト
- Authors: Nicholas Napolitano
- Abstract要約: そこで本研究では,Match-3 ゲームにおいて,Deep Reinforcement Learning を用いてテストプロセスを自動化する可能性について検討する。
我々は,レッドビットゲームズが開発したMatch-3ゲームであるJelly Juiceゲーム上で,この種のネットワークをテストする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Testing a video game is a critical step for the production process and
requires a great effort in terms of time and resources spent. Some software
houses are trying to use the artificial intelligence to reduce the need of
human resources using systems able to replace a human agent. We study the
possibility to use the Deep Reinforcement Learning to automate the testing
process in match-3 video games and suggest to approach the problem in the
framework of a Dueling Deep Q-Network paradigm. We test this kind of network on
the Jelly Juice game, a match-3 video game developed by the redBit Games. The
network extracts the essential information from the game environment and infers
the next move. We compare the results with the random player performance,
finding that the network shows a highest success rate. The results are in most
cases similar with those obtained by real users, and the network also succeeds
in learning over time the different features that distinguish the game levels
and adapts its strategy to the increasing difficulties.
- Abstract(参考訳): ビデオゲームのテストは、生産プロセスにとって重要なステップであり、時間とリソースの面で大きな努力が必要です。
一部のソフトウェアハウスは、人工知能を使って人間のエージェントを置き換えるシステムを使って人的資源の必要性を減らそうとしている。
我々は,Deep Reinforcement Learning(ディープ強化学習,Deep Reinforcement Learning)を用いて,マッチ3ゲームにおけるテストプロセスを自動化する可能性を検討した。
このネットワークを,redbit gamesが開発したmatch-3ゲームであるjelly juice gameでテストした。
ネットワークはゲーム環境から必要な情報を抽出し、次の動きを推測する。
結果とランダムなプレーヤのパフォーマンスを比較して,ネットワークが最も成功率が高いことを示す。
結果が実際のユーザとほとんど同じ場合、ネットワークはゲームレベルを区別し、その戦略を困難な状況に適応するさまざまな特徴を時間とともに学習することに成功した。
関連論文リスト
- Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - Technical Challenges of Deploying Reinforcement Learning Agents for Game
Testing in AAA Games [58.720142291102135]
本稿では,既存の自動ゲームテストソリューションに,スクリプト型ボットをベースとして,実験的な強化学習システムを追加する取り組みについて述べる。
ゲーム制作において強化学習を活用するためのユースケースを示し、ゲームのために同じ旅をしたいと思う人なら誰でも遭遇する最大の時間をカバーしています。
我々は、機械学習、特にゲーム生産において効果的なツールである強化学習を作るのに価値があり、必要であると考えるいくつかの研究指針を提案する。
論文 参考訳(メタデータ) (2023-07-19T18:19:23Z) - Mastering Percolation-like Games with Deep Learning [0.0]
ネットワークを破壊しようとする攻撃者の論理を模倣した格子上にシングルプレイヤーゲームを作成する。
ゲームの目的は、最も少ないステップ数で全てのノードを無効にすることである。
私たちは、堅牢性の異なる定義でエージェントを訓練し、学習した戦略を比較します。
論文 参考訳(メタデータ) (2023-05-12T15:37:45Z) - Collusion Detection in Team-Based Multiplayer Games [57.153233321515984]
チームベースのマルチプレイヤーゲームにおいて,協調動作を検出するシステムを提案する。
提案手法は,ゲーム内行動パターンと組み合わせたプレイヤーの社会的関係を解析する。
次に,非教師なし学習手法であるアイソレーションフォレストによる検出を自動化する。
論文 参考訳(メタデータ) (2022-03-10T02:37:39Z) - Applying supervised and reinforcement learning methods to create
neural-network-based agents for playing StarCraft II [0.0]
本稿では,汎用的な教師付き強化学習でトレーニングしたStarCraft IIのフル2プレーヤマッチングを実現するニューラルネットワークアーキテクチャを提案する。
本実装では,ゲーム内スクリプトボットと比較して,非自明な性能を実現している。
論文 参考訳(メタデータ) (2021-09-26T20:08:10Z) - An Empirical Study on the Generalization Power of Neural Representations
Learned via Visual Guessing Games [79.23847247132345]
本研究は,視覚質問応答(VQA)のような新しいNLP下流タスクにおいて,後から実行を依頼されたとき,人工エージェントが推測ゲームでどの程度の利益を得ることができるかを検討する。
提案手法は,1) エージェントがうまく推理ゲームを模倣することを学習する教師あり学習シナリオ,2) エージェントが単独でプレイする新しい方法,すなわち,反復経験学習(SPIEL)によるセルフプレイ(Self-play)を提案する。
論文 参考訳(メタデータ) (2021-01-31T10:30:48Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z) - Navigating the Landscape of Multiplayer Games [20.483315340460127]
大規模ゲームの応答グラフにネットワーク測度を適用することで,ゲームのランドスケープを創出できることを示す。
本研究は, 標準ゲームから複雑な経験ゲームまで, 訓練されたエージェント同士のパフォーマンスを計測する領域における知見について述べる。
論文 参考訳(メタデータ) (2020-05-04T16:58:17Z) - Benchmarking End-to-End Behavioural Cloning on Video Games [5.863352129133669]
我々は,2010年以降の6ゲームを含む12のビデオゲームにおける行動クローンの一般適用性について検討した。
以上の結果から,これらのエージェントは生演奏では人間と一致しないが,基本力学やルールを学習できることがわかった。
また、データの質や、人間からのデータの記録が、人間の反射によって、状態-作用ミスマッチの対象になっていることを実証する。
論文 参考訳(メタデータ) (2020-04-02T13:31:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。