論文の概要: Configurable Agent With Reward As Input: A Play-Style Continuum
Generation
- arxiv url: http://arxiv.org/abs/2211.16221v1
- Date: Tue, 29 Nov 2022 13:59:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 15:10:37.371398
- Title: Configurable Agent With Reward As Input: A Play-Style Continuum
Generation
- Title(参考訳): Rewardを入力として設定可能なエージェント:プレイスタイル連続生成
- Authors: Pierre Le Pelletier de Woillemont, R\'emi Labory and Vincent Corruble
- Abstract要約: 複数のプレイスタイルを定義するためのゲーム環境を提案する。
次に、幅広いプレイスタイルをシミュレートできる強化学習エージェントであるCARIを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Modern video games are becoming richer and more complex in terms of game
mechanics. This complexity allows for the emergence of a wide variety of ways
to play the game across the players. From the point of view of the game
designer, this means that one needs to anticipate a lot of different ways the
game could be played. Machine Learning (ML) could help address this issue. More
precisely, Reinforcement Learning is a promising answer to the need of
automating video game testing. In this paper we present a video game
environment which lets us define multiple play-styles. We then introduce CARI:
a Configurable Agent with Reward as Input. An agent able to simulate a wide
continuum range of play-styles. It is not constrained to extreme archetypal
behaviors like current methods using reward shaping. In addition it achieves
this through a single training loop, instead of the usual one loop per
play-style. We compare this novel training approach with the more classic
reward shaping approach and conclude that CARI can also outperform the baseline
on archetypes generation. This novel agent could be used to investigate
behaviors and balancing during the production of a video game with a realistic
amount of training time.
- Abstract(参考訳): 現代のビデオゲームは、ゲームメカニズムの面でより豊かで複雑なものになりつつある。
この複雑さは、プレイヤー間でゲームをプレイする様々な方法の出現を可能にする。
ゲームデザイナーの観点では、ゲームがプレイできる多くの異なる方法を予想する必要があることを意味する。
機械学習(ML)はこの問題を解決するのに役立つ。
より正確に言えば、強化学習はビデオゲームのテストを自動化する必要性に対する有望な答えである。
本稿では,複数のプレイスタイルを定義可能なゲーム環境を提案する。
次に、RewardをInputとして設定可能なエージェントであるCARIを紹介します。
幅広いプレイスタイルの連続体範囲をシミュレートできるエージェント。
報酬シェーピングを用いた現在の方法のような極端な元型行動には制限されない。
さらに、通常のプレイスタイルの1ループではなく、1つのトレーニングループでこれを実現する。
我々はこの新しいトレーニング手法と古典的な報酬形成手法を比較し、CARIはアーチェタイプ生成のベースラインを上回りうると結論づける。
本発明の新規エージェントは,ゲーム製作時の動作やバランスを,現実的なトレーニング時間で調査することができる。
関連論文リスト
- Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Automated Play-Testing Through RL Based Human-Like Play-Styles
Generation [0.0]
強化学習は、ビデオゲームのテストを自動化する必要性に対する有望な答えである。
CARMI: aを提示します。
入力として相対測度を持つエージェント。
以前は目に見えないレベルであっても、プレイヤーのプレースタイルをエミュレートできるエージェント。
論文 参考訳(メタデータ) (2022-11-29T14:17:20Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - An Unsupervised Video Game Playstyle Metric via State Discretization [20.48689549093258]
本稿では,ゲーム観察とアクションから直接,ビデオゲームのプレイスタイルに関する最初の指標を提案する。
提案手法は離散表現を学習する新しい手法に基づいている。
いくつかのゲームプラットフォームにおける実験において,我々の測定値の高精度なプレイスタイルの精度を示す。
論文 参考訳(メタデータ) (2021-10-03T08:30:51Z) - Policy Fusion for Adaptive and Customizable Reinforcement Learning
Agents [137.86426963572214]
異なる行動政策を結合して有意義な「融合」政策を得る方法を示す。
事前学習されたポリシーを組み合わせるための4つの異なるポリシー融合手法を提案する。
これらの手法がゲーム制作や設計に実際どのように役立つのか,実例とユースケースをいくつか紹介する。
論文 参考訳(メタデータ) (2021-04-21T16:08:44Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Reinforcement Learning Agents for Ubisoft's Roller Champions [0.26249027950824505]
楕円形のスケート場でプレイする3v3コンペティティブマルチプレイヤースポーツゲーム「Ubisoft's Roller Champions」のRLシステムを紹介します。
私たちのシステムは,ゲームプレイの変更に伴って新しいモデルをトレーニングするために1~4日を要し,アジャイルで迅速な開発に追随するように設計されています。
我々はAIが高度な協調戦略を開発し、ボーナスとしてゲームのバランスをとるのに役立つことを観察する。
論文 参考訳(メタデータ) (2020-12-10T23:53:15Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。