論文の概要: Balancing of competitive two-player Game Levels with Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2306.04429v1
- Date: Wed, 7 Jun 2023 13:40:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 14:22:03.880233
- Title: Balancing of competitive two-player Game Levels with Reinforcement
Learning
- Title(参考訳): 強化学習による対戦型2人ゲームレベルのバランス
- Authors: Florian Rupp, Manuel Eberhardinger, Kai Eckert
- Abstract要約: 我々は最近導入されたPCGRLフレームワーク内でタイルベースレベルの自動バランスのためのアーキテクチャを提案する。
アーキテクチャは,(1)レベルジェネレータ,(2)バランスエージェント,(3)報酬モデルシミュレーションの3つの部分に分けられる。
提案手法は,従来のPCGRLよりもバランスを良く,かつ高速にするために,エージェントにレベルを変更する方法を教えることができることを示す。
- 参考スコア(独自算出の注目度): 0.2793095554369281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The balancing process for game levels in a competitive two-player context
involves a lot of manual work and testing, particularly in non-symmetrical game
levels. In this paper, we propose an architecture for automated balancing of
tile-based levels within the recently introduced PCGRL framework (procedural
content generation via reinforcement learning). Our architecture is divided
into three parts: (1) a level generator, (2) a balancing agent and, (3) a
reward modeling simulation. By playing the level in a simulation repeatedly,
the balancing agent is rewarded for modifying it towards the same win rates for
all players. To this end, we introduce a novel family of swap-based
representations to increase robustness towards playability. We show that this
approach is capable to teach an agent how to alter a level for balancing better
and faster than plain PCGRL. In addition, by analyzing the agent's swapping
behavior, we can draw conclusions about which tile types influence the
balancing most. We test and show our results using the Neural MMO (NMMO)
environment in a competitive two-player setting.
- Abstract(参考訳): 競合する2人プレイヤコンテキストにおけるゲームレベルのバランスのプロセスは、特に非対称ゲームレベルにおいて、多くの手作業とテストを含む。
本稿では,最近導入されたPCGRLフレームワーク(強化学習によるプロデューラルコンテンツ生成)におけるタイルレベルの自動バランスのためのアーキテクチャを提案する。
アーキテクチャは, (1) レベルジェネレータ, (2) バランスエージェント, (3) 報酬モデリングシミュレーションの3部に分かれている。
シミュレーションで繰り返しレベルを再生することにより、バランスエージェントは、すべてのプレイヤーに対して同じ勝利率に修正される。
そこで,本稿では,遊びやすさに対する堅牢性を高めるために,スワップベース表現の新たなファミリーを提案する。
このアプローチは,従来のpcgrlよりも早くバランスをとるためのレベルを変更する方法をエージェントに教えることができることを示す。
さらに,エージェントのスワップ動作を分析することで,どのタイルタイプが最もバランスに影響するかという結論を導き出すことができる。
NMMO(Neural MMO)環境を競合する2人プレイヤ環境でテストし,その結果を示す。
関連論文リスト
- Identifying and Clustering Counter Relationships of Team Compositions in PvP Games for Efficient Balance Analysis [24.683917771144536]
ゼロサム競争シナリオにおけるバランスを定量化する尺度を開発する。
我々は、合成の有用なカテゴリを特定し、それらのカウンター関係をピンポイントする。
私たちのフレームワークは、Eage of Empires II、Hearthstone、Brawl Stars、League of Legendsなど、人気のあるオンラインゲームで検証されています。
論文 参考訳(メタデータ) (2024-08-30T10:28:36Z) - Neural Population Learning beyond Symmetric Zero-sum Games [52.20454809055356]
我々はNuPL-JPSROという,スキルの伝達学習の恩恵を受けるニューラル集団学習アルゴリズムを導入し,ゲームの粗相関(CCE)に収束する。
本研究は, 均衡収束型集団学習を大規模かつ汎用的に実施可能であることを示す。
論文 参考訳(メタデータ) (2024-01-10T12:56:24Z) - Balance, Imbalance, and Rebalance: Understanding Robust Overfitting from
a Minimax Game Perspective [80.51463286812314]
敵対的訓練(AT)はおそらく、頑健な特徴を抽出するための最先端のアルゴリズムである。
ATは、特に学習率(LR)が崩壊した後、深刻な強固な過適合問題に悩まされる。
我々は, LR崩壊が, より強い記憶能力でトレーナーに力を与えることにより, ミニマックスゲーム間のバランスを損なうことを示す。
論文 参考訳(メタデータ) (2023-10-30T09:00:11Z) - Finding mixed-strategy equilibria of continuous-action games without
gradients using randomized policy networks [83.28949556413717]
グラデーションへのアクセスを伴わない連続アクションゲームのナッシュ平衡を近似的に計算する問題について検討する。
ニューラルネットワークを用いてプレイヤーの戦略をモデル化する。
本論文は、制約のない混合戦略と勾配情報のない一般的な連続アクションゲームを解決する最初の方法である。
論文 参考訳(メタデータ) (2022-11-29T05:16:41Z) - Three-Player Game Training Dynamics [77.34726150561087]
単純化されたバイリニアスムースゲームの拡張版を用いて,3人プレイヤゲームトレーニングのダイナミクスを探索する。
ほとんどの場合、三線型ゲームはナッシュ均衡に収束しない。
更新と同時更新の交互化に加えて,新たな更新順序--maximizer-first-を探索する。
論文 参考訳(メタデータ) (2022-08-12T23:57:44Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - Multi-Agent Collaboration via Reward Attribution Decomposition [75.36911959491228]
本稿では,StarCraftのマルチエージェントチャレンジにおいて,最先端のパフォーマンスを実現するコラボレーション型Q-ラーニング(CollaQ)を提案する。
CollaQは様々なStarCraft属性マップで評価され、既存の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-16T17:42:11Z) - Metagame Autobalancing for Competitive Multiplayer Games [0.10499611180329801]
ゲーム設計において,マルチプレイヤーゲームのバランスをとるためのツールを提案する。
我々のアプローチでは,設計者がメタゲームターゲットの直感的なグラフィカル表現を構築する必要がある。
このツールの能力は、Rock-Paper-Scissors から継承された例や、より複雑な非対称戦闘ゲームにおいて示す。
論文 参考訳(メタデータ) (2020-06-08T08:55:30Z) - Controllable Level Blending between Games using Variational Autoencoders [6.217860411034386]
スーパーマリオブラザーズとキッド・イカラスのレベルデータに基づいてVAEをトレーニングし、両方のゲームにまたがる潜伏空間を捕捉できるようにします。
次に、この空間を用いて、両方のゲームからレベルの特性を組み合わせたレベルセグメントを生成する。
これらの余裕は、特に共同創造的レベルの設計にVAEベースのアプローチを適していると我々は主張する。
論文 参考訳(メタデータ) (2020-02-27T01:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。