論文の概要: Level the Level: Balancing Game Levels for Asymmetric Player Archetypes With Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2503.24099v1
- Date: Mon, 31 Mar 2025 13:55:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:34:09.448599
- Title: Level the Level: Balancing Game Levels for Asymmetric Player Archetypes With Reinforcement Learning
- Title(参考訳): レベルレベル:強化学習による非対称プレーヤーアーチタイプのためのゲームレベルバランス
- Authors: Florian Rupp, Kai Eckert,
- Abstract要約: この研究は、非対称なプレイヤーアーキタイプに合わせて調整されたバランスの取れたレベルを生成することに焦点を当てている。
我々は最近導入された強化学習を用いてタイルベースのゲームレベルのバランスをとる手法を拡張した。
- 参考スコア(独自算出の注目度): 0.28273304533873334
- License:
- Abstract: Balancing games, especially those with asymmetric multiplayer content, requires significant manual effort and extensive human playtesting during development. For this reason, this work focuses on generating balanced levels tailored to asymmetric player archetypes, where the disparity in abilities is balanced entirely through the level design. For instance, while one archetype may have an advantage over another, both should have an equal chance of winning. We therefore conceptualize game balancing as a procedural content generation problem and build on and extend a recently introduced method that uses reinforcement learning to balance tile-based game levels. We evaluate the method on four different player archetypes and demonstrate its ability to balance a larger proportion of levels compared to two baseline approaches. Furthermore, our results indicate that as the disparity between player archetypes increases, the required number of training steps grows, while the model's accuracy in achieving balance decreases.
- Abstract(参考訳): バランスの取れたゲーム、特に非対称なマルチプレイヤーコンテンツは、開発中にかなりの手作業と広範な人間のプレイテストを必要とする。
このため、この研究は、非対称なプレイヤーアーキタイプに合わせたバランスの取れたレベルを生成することに焦点を当てており、能力の格差はレベル設計によって完全にバランスが取れている。
例えば、あるアーチェタイプが他のアーチェタイプよりも有利であるとしても、どちらも同じ確率で勝つべきである。
そこで我々は,ゲームバランシングを手続き的コンテンツ生成問題として概念化し,強化学習を用いてタイルベースのゲームレベルのバランスをとる手法を構築し拡張する。
本手法を4種類のプレイヤーアーチタイプで評価し、2つのベースラインアプローチと比較して大きなバランスをとる能力を示した。
さらに,プレイヤーアーキタイプ間の相違が増大するにつれて,必要なトレーニングステップ数が増加し,バランス達成におけるモデルの精度が低下することが示唆された。
関連論文リスト
- Identifying and Clustering Counter Relationships of Team Compositions in PvP Games for Efficient Balance Analysis [24.683917771144536]
ゼロサム競争シナリオにおけるバランスを定量化する尺度を開発する。
我々は、合成の有用なカテゴリを特定し、それらのカウンター関係をピンポイントする。
私たちのフレームワークは、Eage of Empires II、Hearthstone、Brawl Stars、League of Legendsなど、人気のあるオンラインゲームで検証されています。
論文 参考訳(メタデータ) (2024-08-30T10:28:36Z) - Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - Neural Population Learning beyond Symmetric Zero-sum Games [52.20454809055356]
我々はNuPL-JPSROという,スキルの伝達学習の恩恵を受けるニューラル集団学習アルゴリズムを導入し,ゲームの粗相関(CCE)に収束する。
本研究は, 均衡収束型集団学習を大規模かつ汎用的に実施可能であることを示す。
論文 参考訳(メタデータ) (2024-01-10T12:56:24Z) - Balance, Imbalance, and Rebalance: Understanding Robust Overfitting from
a Minimax Game Perspective [80.51463286812314]
敵対的訓練(AT)はおそらく、頑健な特徴を抽出するための最先端のアルゴリズムである。
ATは、特に学習率(LR)が崩壊した後、深刻な強固な過適合問題に悩まされる。
我々は, LR崩壊が, より強い記憶能力でトレーナーに力を与えることにより, ミニマックスゲーム間のバランスを損なうことを示す。
論文 参考訳(メタデータ) (2023-10-30T09:00:11Z) - Balancing of competitive two-player Game Levels with Reinforcement
Learning [0.2793095554369281]
我々は最近導入されたPCGRLフレームワーク内でタイルベースレベルの自動バランスのためのアーキテクチャを提案する。
アーキテクチャは,(1)レベルジェネレータ,(2)バランスエージェント,(3)報酬モデルシミュレーションの3つの部分に分けられる。
提案手法は,従来のPCGRLよりもバランスを良く,かつ高速にするために,エージェントにレベルを変更する方法を教えることができることを示す。
論文 参考訳(メタデータ) (2023-06-07T13:40:20Z) - Finding mixed-strategy equilibria of continuous-action games without
gradients using randomized policy networks [83.28949556413717]
グラデーションへのアクセスを伴わない連続アクションゲームのナッシュ平衡を近似的に計算する問題について検討する。
ニューラルネットワークを用いてプレイヤーの戦略をモデル化する。
本論文は、制約のない混合戦略と勾配情報のない一般的な連続アクションゲームを解決する最初の方法である。
論文 参考訳(メタデータ) (2022-11-29T05:16:41Z) - Learning Correlated Equilibria in Mean-Field Games [62.14589406821103]
我々は平均場相関と粗相関平衡の概念を発展させる。
ゲームの構造に関する仮定を必要とせず,効率よくゲーム内で学習できることが示される。
論文 参考訳(メタデータ) (2022-08-22T08:31:46Z) - Formalizing the Generalization-Forgetting Trade-off in Continual
Learning [1.370633147306388]
破滅的な忘れと一般化のトレードオフを2つのプレイヤーシーケンシャルゲームとしてモデル化する。
理論的には、2人のプレイヤー間のバランスポイントが各タスクに存在し、このポイントが安定であることを示す。
次に、一般化と忘れのバランスをとるために設計されたバランス付き連続学習(BCL)を導入する。
論文 参考訳(メタデータ) (2021-09-28T20:39:04Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Metagame Autobalancing for Competitive Multiplayer Games [0.10499611180329801]
ゲーム設計において,マルチプレイヤーゲームのバランスをとるためのツールを提案する。
我々のアプローチでは,設計者がメタゲームターゲットの直感的なグラフィカル表現を構築する必要がある。
このツールの能力は、Rock-Paper-Scissors から継承された例や、より複雑な非対称戦闘ゲームにおいて示す。
論文 参考訳(メタデータ) (2020-06-08T08:55:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。