論文の概要: Reinforcement Learning with Dual-Observation for General Video Game
Playing
- arxiv url: http://arxiv.org/abs/2011.05622v4
- Date: Thu, 31 Mar 2022 08:11:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:07:01.578247
- Title: Reinforcement Learning with Dual-Observation for General Video Game
Playing
- Title(参考訳): デュアルオブザーバを用いた汎用ビデオゲームの強化学習
- Authors: Chengpeng Hu, Ziqi Wang, Tianye Shu, Hao Tong, Julian Togelius, Xin
Yao and Jialin Liu
- Abstract要約: General Video Game AI Learning Competitionは、トレーニング中に見えないさまざまなゲームレベルをプレイできるエージェントを開発することを目的としている。
本稿では,5年間の一般ゲームAI学習コンペティションを要約する。
汎用ゲームプレイのための2重観測を用いた新しい強化学習手法を提案する。
- 参考スコア(独自算出の注目度): 12.33685708449853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning algorithms have performed well in playing challenging
board and video games. More and more studies focus on improving the
generalisation ability of reinforcement learning algorithms. The General Video
Game AI Learning Competition aims to develop agents capable of learning to play
different game levels that were unseen during training. This paper summarises
the five years' General Video Game AI Learning Competition editions. At each
edition, three new games were designed. The training and test levels were
designed separately in the first three editions. Since 2020, three test levels
of each game were generated by perturbing or combining two training levels.
Then, we present a novel reinforcement learning technique with dual-observation
for general video game playing, assuming that it is more likely to observe
similar local information in different levels rather than global information.
Instead of directly inputting a single, raw pixel-based screenshot of the
current game screen, our proposed general technique takes the encoded,
transformed global and local observations of the game screen as two
simultaneous inputs, aiming at learning local information for playing new
levels. Our proposed technique is implemented with three state-of-the-art
reinforcement learning algorithms and tested on the game set of the 2020
General Video Game AI Learning Competition. Ablation studies show the
outstanding performance of using encoded, transformed global and local
observations as input.
- Abstract(参考訳): 強化学習アルゴリズムは、挑戦的なボードやビデオゲームのプレイでうまくいった。
ますます多くの研究が強化学習アルゴリズムの一般化能力の向上に焦点を当てている。
General Video Game AI Learning Competitionは、トレーニング中に目に見えないさまざまなゲームレベルをプレイできることを学ぶエージェントを開発することを目的としている。
本稿では,5年間の一般ゲームAI学習コンペティションを要約する。
各版では3つの新しいゲームがデザインされた。
トレーニングレベルとテストレベルは、最初の3つのエディションで別々に設計された。
2020年以降、各ゲームの3つのテストレベルは、2つのトレーニングレベルを摂動または組み合わせることで生成される。
そこで本稿では,グローバルな情報よりも,異なるレベルのローカル情報を観測する傾向が強いことを前提として,汎用ゲームプレイのための二重観測による新しい強化学習手法を提案する。
提案手法では,現在のゲーム画面の1つの生のピクセルベースのスクリーンショットを直接入力するのではなく,ゲーム画面の符号化されたグローバルなローカルな観察を2つの同時入力として,新たなレベルを再生するためのローカル情報学習を目的とする。
提案手法は,3つの最先端強化学習アルゴリズムを用いて実装し,2020年一般ビデオゲームai学習コンペティションのゲームセットでテストした。
アブレーション研究は、エンコード、変換された大域的および局所的な観測を入力として使用する優れた性能を示している。
関連論文リスト
- Enhancing Two-Player Performance Through Single-Player Knowledge Transfer: An Empirical Study on Atari 2600 Games [1.03590082373586]
本研究では,Atari 2600 RAMを入力状態とした10種類のAtari 2600環境における提案手法について検討した。
我々は,スクラッチから2人プレイヤ設定のトレーニングよりも,シングルプレイヤートレーニングプロセスからトランスファーラーニングを使用することの利点について論じる。
論文 参考訳(メタデータ) (2024-10-22T02:57:44Z) - Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - Accelerate Multi-Agent Reinforcement Learning in Zero-Sum Games with
Subgame Curriculum Learning [65.36326734799587]
ゼロサムゲームのための新しいサブゲームカリキュラム学習フレームワークを提案する。
エージェントを以前に訪れた状態にリセットすることで、適応的な初期状態分布を採用する。
我々は,2乗距離をNE値に近似するサブゲーム選択指標を導出する。
論文 参考訳(メタデータ) (2023-10-07T13:09:37Z) - Technical Challenges of Deploying Reinforcement Learning Agents for Game
Testing in AAA Games [58.720142291102135]
本稿では,既存の自動ゲームテストソリューションに,スクリプト型ボットをベースとして,実験的な強化学習システムを追加する取り組みについて述べる。
ゲーム制作において強化学習を活用するためのユースケースを示し、ゲームのために同じ旅をしたいと思う人なら誰でも遭遇する最大の時間をカバーしています。
我々は、機械学習、特にゲーム生産において効果的なツールである強化学習を作るのに価値があり、必要であると考えるいくつかの研究指針を提案する。
論文 参考訳(メタデータ) (2023-07-19T18:19:23Z) - Game State Learning via Game Scene Augmentation [2.570570340104555]
我々はゲームエンジンを利用して、異なるゲーム状態の特定の、高度に制御されたレンダリングを定義し、合成する新しいゲームシーン拡張技術、GameCLRを紹介した。
この結果から,ゲームCLRはベースラインよりもゲーム映像からゲームの状態情報を正確に推測できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-07-04T09:40:14Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - An Empirical Study on the Generalization Power of Neural Representations
Learned via Visual Guessing Games [79.23847247132345]
本研究は,視覚質問応答(VQA)のような新しいNLP下流タスクにおいて,後から実行を依頼されたとき,人工エージェントが推測ゲームでどの程度の利益を得ることができるかを検討する。
提案手法は,1) エージェントがうまく推理ゲームを模倣することを学習する教師あり学習シナリオ,2) エージェントが単独でプレイする新しい方法,すなわち,反復経験学習(SPIEL)によるセルフプレイ(Self-play)を提案する。
論文 参考訳(メタデータ) (2021-01-31T10:30:48Z) - Testing match-3 video games with Deep Reinforcement Learning [0.0]
そこで本研究では,Match-3 ゲームにおいて,Deep Reinforcement Learning を用いてテストプロセスを自動化する可能性について検討する。
我々は,レッドビットゲームズが開発したMatch-3ゲームであるJelly Juiceゲーム上で,この種のネットワークをテストする。
論文 参考訳(メタデータ) (2020-06-30T12:41:35Z) - Evaluating Generalisation in General Video Game Playing [1.160208922584163]
本稿では,GVGAI学習コースにおいて,3つのゲームが選択され,2つのレベルがトレーニング用に与えられる一方で,3つの隠れレベルが評価のために残るという課題に焦点を当てる。
このセットアップは、通常より多くのデータを必要とするため、現在の強化学習(RL)アルゴリズムにとって難しい課題となる。
本稿では、GVGAIフレームワークから利用可能な5レベルから最大2レベルまでトレーニングされたAdvantage Actor-Critic (A2C)アルゴリズムの3バージョンを調査し、すべてのレベルのパフォーマンスを比較した。
論文 参考訳(メタデータ) (2020-05-22T15:57:52Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。