論文の概要: Simulation-Driven Balancing of Competitive Game Levels with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2503.18748v1
- Date: Mon, 24 Mar 2025 14:57:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:34:39.933184
- Title: Simulation-Driven Balancing of Competitive Game Levels with Reinforcement Learning
- Title(参考訳): 強化学習による競争ゲームレベルのシミュレーション駆動バランシング
- Authors: Florian Rupp, Manuel Eberhardinger, Kai Eckert,
- Abstract要約: そこで本研究では,PCGRLフレームワーク内でタイルベースのレベルを自動的にバランスするアーキテクチャを提案する。
アーキテクチャは,(1)レベルジェネレータ,(2)バランスエージェント,(3)報酬モデリングシミュレーションの3つの部分に分けられる。
提案手法の適用性について検討し,提案手法の適用性について検討し,その性能を他の検索手法と比較し,既存のフェアネス指標をゲームバランスに適用する方法について考察する。
- 参考スコア(独自算出の注目度): 0.2515642845381732
- License:
- Abstract: The balancing process for game levels in competitive two-player contexts involves a lot of manual work and testing, particularly for non-symmetrical game levels. In this work, we frame game balancing as a procedural content generation task and propose an architecture for automatically balancing of tile-based levels within the PCGRL framework (procedural content generation via reinforcement learning). Our architecture is divided into three parts: (1) a level generator, (2) a balancing agent, and (3) a reward modeling simulation. Through repeated simulations, the balancing agent receives rewards for adjusting the level towards a given balancing objective, such as equal win rates for all players. To this end, we propose new swap-based representations to improve the robustness of playability, thereby enabling agents to balance game levels more effectively and quickly compared to traditional PCGRL. By analyzing the agent's swapping behavior, we can infer which tile types have the most impact on the balance. We validate our approach in the Neural MMO (NMMO) environment in a competitive two-player scenario. In this extended conference paper, we present improved results, explore the applicability of the method to various forms of balancing beyond equal balancing, compare the performance to another search-based approach, and discuss the application of existing fairness metrics to game balancing.
- Abstract(参考訳): 競合する2人のプレイヤコンテキストにおけるゲームレベルのバランスのプロセスは、特に非対称的なゲームレベルにおいて、多くの手作業とテストを含む。
本研究では,ゲームバランシングを手続き的コンテンツ生成タスクとして捉え,PCGRLフレームワーク内でタイルベースのレベルを自動的にバランスするアーキテクチャを提案する。
アーキテクチャは,(1)レベルジェネレータ,(2)バランスエージェント,(3)報酬モデリングシミュレーションの3つの部分に分けられる。
繰り返しシミュレーションにより、バランシングエージェントは、任意のバランシング目標に向かってレベルを調整するための報酬を受け取る。
そこで本稿では,従来のPCGRLに比べてゲームレベルのバランスが,より効果的かつ迅速に行えるように,スワップベースの新しい表現を提案する。
エージェントのスワップ動作を分析することで、どのタイルタイプがバランスに最も影響するかを推測できる。
我々は,NMMO(Neural MMO)環境におけるアプローチを,競合する2人のプレイヤーのシナリオで検証する。
この拡張会議報告では,提案手法の適用性について検討し,その性能を他の検索手法と比較し,既存のフェアネス指標をゲームバランシングに適用することについて議論する。
関連論文リスト
- Beyond Win Rates: A Clustering-Based Approach to Character Balance Analysis in Team-Based Games [0.0]
競争ゲームにおけるキャラクターの多様性は、プレイヤーの経験と戦略的な深さに悪影響を及ぼす可能性がある。
従来のバランスアセスメントは、勝利率やピックレートといった総合的な指標に依存しています。
本稿では,キャラクタバランスを解析するためのクラスタリングに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2025-02-03T11:20:21Z) - Identifying and Clustering Counter Relationships of Team Compositions in PvP Games for Efficient Balance Analysis [24.683917771144536]
ゼロサム競争シナリオにおけるバランスを定量化する尺度を開発する。
我々は、合成の有用なカテゴリを特定し、それらのカウンター関係をピンポイントする。
私たちのフレームワークは、Eage of Empires II、Hearthstone、Brawl Stars、League of Legendsなど、人気のあるオンラインゲームで検証されています。
論文 参考訳(メタデータ) (2024-08-30T10:28:36Z) - Neural Population Learning beyond Symmetric Zero-sum Games [52.20454809055356]
我々はNuPL-JPSROという,スキルの伝達学習の恩恵を受けるニューラル集団学習アルゴリズムを導入し,ゲームの粗相関(CCE)に収束する。
本研究は, 均衡収束型集団学習を大規模かつ汎用的に実施可能であることを示す。
論文 参考訳(メタデータ) (2024-01-10T12:56:24Z) - Balance, Imbalance, and Rebalance: Understanding Robust Overfitting from
a Minimax Game Perspective [80.51463286812314]
敵対的訓練(AT)はおそらく、頑健な特徴を抽出するための最先端のアルゴリズムである。
ATは、特に学習率(LR)が崩壊した後、深刻な強固な過適合問題に悩まされる。
我々は, LR崩壊が, より強い記憶能力でトレーナーに力を与えることにより, ミニマックスゲーム間のバランスを損なうことを示す。
論文 参考訳(メタデータ) (2023-10-30T09:00:11Z) - Balancing of competitive two-player Game Levels with Reinforcement
Learning [0.2793095554369281]
我々は最近導入されたPCGRLフレームワーク内でタイルベースレベルの自動バランスのためのアーキテクチャを提案する。
アーキテクチャは,(1)レベルジェネレータ,(2)バランスエージェント,(3)報酬モデルシミュレーションの3つの部分に分けられる。
提案手法は,従来のPCGRLよりもバランスを良く,かつ高速にするために,エージェントにレベルを変更する方法を教えることができることを示す。
論文 参考訳(メタデータ) (2023-06-07T13:40:20Z) - Finding mixed-strategy equilibria of continuous-action games without
gradients using randomized policy networks [83.28949556413717]
グラデーションへのアクセスを伴わない連続アクションゲームのナッシュ平衡を近似的に計算する問題について検討する。
ニューラルネットワークを用いてプレイヤーの戦略をモデル化する。
本論文は、制約のない混合戦略と勾配情報のない一般的な連続アクションゲームを解決する最初の方法である。
論文 参考訳(メタデータ) (2022-11-29T05:16:41Z) - Nash Equilibria and Pitfalls of Adversarial Training in Adversarial
Robustness Games [51.90475640044073]
本研究では,2プレイヤゼロサムゲームにおける最適応答戦略の交互化として,対戦訓練について検討する。
一方、ゲームのユニークな純粋なナッシュ均衡が存在し、確実に堅牢である。
論文 参考訳(メタデータ) (2022-10-23T03:21:01Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Sample-Efficient Learning of Stackelberg Equilibria in General-Sum Games [78.65798135008419]
一般的なゲームでStackelberg平衡を効率的に学習する方法は、サンプルから非常にオープンなままです。
本稿では,2プレーヤターンベース汎用ゲームにおけるStackelberg平衡のサンプル効率学習に関する理論的研究を開始する。
論文 参考訳(メタデータ) (2021-02-23T05:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。