論文の概要: RuleSmith: Multi-Agent LLMs for Automated Game Balancing
- arxiv url: http://arxiv.org/abs/2602.06232v1
- Date: Thu, 05 Feb 2026 22:19:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.133883
- Title: RuleSmith: Multi-Agent LLMs for Automated Game Balancing
- Title(参考訳): RuleSmith: 自動ゲームバランシングのためのマルチエージェントLLM
- Authors: Ziyao Zeng, Chen Liu, Tianyu Liu, Hao Wang, Xiatao Sun, Fengyu Yang, Xiaofeng Liu, Zhiwen Fan,
- Abstract要約: RuleSmith はマルチエージェント LLM の推論能力を活用することで,自動ゲームバランシングを実現する最初のフレームワークである。
ゲームエンジン、マルチエージェントLLMのセルフプレイ、多次元ルール空間上で動作するベイズ最適化を2つに分けている。
RuleSmith on CivMiniは、可変パラメータで管理されるシンプルな文明スタイルのゲームである。
- 参考スコア(独自算出の注目度): 35.69628235278724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Game balancing is a longstanding challenge requiring repeated playtesting, expert intuition, and extensive manual tuning. We introduce RuleSmith, the first framework that achieves automated game balancing by leveraging the reasoning capabilities of multi-agent LLMs. It couples a game engine, multi-agent LLMs self-play, and Bayesian optimization operating over a multi-dimensional rule space. As a proof of concept, we instantiate RuleSmith on CivMini, a simplified civilization-style game containing heterogeneous factions, economy systems, production rules, and combat mechanics, all governed by tunable parameters. LLM agents interpret textual rulebooks and game states to generate actions, to conduct fast evaluation of balance metrics such as win-rate disparities. To search the parameter landscape efficiently, we integrate Bayesian optimization with acquisition-based adaptive sampling and discrete projection: promising candidates receive more evaluation games for accurate assessment, while exploratory candidates receive fewer games for efficient exploration. Experiments show that RuleSmith converges to highly balanced configurations and provides interpretable rule adjustments that can be directly applied to downstream game systems. Our results illustrate that LLM simulation can serve as a powerful surrogate for automating design and balancing in complex multi-agent environments.
- Abstract(参考訳): ゲームバランシングは、繰り返しプレイテスト、専門家の直観、広範囲なマニュアルチューニングを必要とする長年にわたる課題である。
マルチエージェント LLM の推論機能を活用することで,ゲームバランシングの自動化を実現する最初のフレームワークである RuleSmith を紹介する。
ゲームエンジン、マルチエージェントLLMのセルフプレイ、多次元ルール空間上で動作するベイズ最適化を2つに分けている。
概念実証として、異種派閥、経済システム、生産ルール、戦闘力学を含む単純化された文明型ゲームであるCivMini上のルールスミスをインスタンス化する。
LLMエージェントは、テキストルールブックとゲームステートを解釈してアクションを生成し、勝利率格差などのバランスメトリクスを高速に評価する。
パラメータランドスケープを効率的に探索するために,ベイズ最適化と取得に基づく適応サンプリングと離散投影を統合した。
実験により、ルールスミスは高度にバランスの取れた構成に収束し、下流のゲームシステムに直接適用可能な解釈可能なルール調整を提供することが示された。
以上の結果から,LLMシミュレーションは複雑なマルチエージェント環境における設計とバランスの自動化のための強力なサロゲートとなる可能性が示唆された。
関連論文リスト
- Beyond Playtesting: A Generative Multi-Agent Simulation System for Massively Multiplayer Online Games [5.045496863924638]
大規模言語モデル(LLM)を用いた生成エージェントに基づくMMOシミュレーションシステムを提案する。
LLMはゲーム固有の領域への一般的な優先順位から適応し、現実的で解釈可能なプレイヤーの意思決定を可能にする。
実験は、実際のプレイヤーの行動と介入下でのもっともらしい因果反応との強い整合性を示す。
論文 参考訳(メタデータ) (2025-12-02T03:01:17Z) - Orak: A Foundational Benchmark for Training and Evaluating LLM Agents on Diverse Video Games [29.194229891848853]
Orakは、さまざまな現実世界のビデオゲームでLarge Language Model (LLM)エージェントをトレーニングし、評価するために設計されたベンチマークである。
LLMの一貫した評価を支援するために,モデルコンテキストプロトコル(MCP)に基づくプラグアンドプレイインタフェースを導入する。
Orakは総合的な評価フレームワークを提供しており、一般的なゲームスコアのリーダーボード、LLMバトルアリーナ、視覚入力状態、エージェント戦略、微調整効果の詳細な分析を含んでいる。
論文 参考訳(メタデータ) (2025-06-04T06:40:33Z) - Fundamental Limits of Game-Theoretic LLM Alignment: Smith Consistency and Preference Matching [23.0436612817548]
ヒューマンフィードバックからのナッシュラーニング(Nash Learning from Human Feedback)は、学習をゼロサムゲームとしてモデル化することで、大きな言語モデルを人間の好みに合わせるためのフレームワークである。
本稿では,人選好に基づく配当選択が望ましいアライメント特性を得られるかを検討する。
論文 参考訳(メタデータ) (2025-05-27T02:07:35Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - Approximating Human Strategic Reasoning with LLM-Enhanced Recursive Reasoners Leveraging Multi-agent Hypergames [3.5083201638203154]
我々は、洗練された推論者に適したロールベースのマルチエージェント戦略相互作用フレームワークを実装した。
我々は,最新のLCMの推論能力を評価するために,ワンショット2プレーヤ美容コンテストを用いた。
実験の結果,人間行動の近似と最適解への到達の両面で,人工推論がベースラインモデルより優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-11T10:37:20Z) - GAMEBoT: Transparent Assessment of LLM Reasoning in Games [54.49589494014147]
GAMEBoTは、大規模言語モデルの厳格な評価のために設計されたゲームアリーナである。
我々は,8つのゲームにまたがる17の卓越したLSMをベンチマークし,様々な戦略能力とゲーム特性について検討した。
以上の結果から,LDMに詳細なCoTプロンプトが付与されている場合でも,GAMEBoTは大きな課題となることが示唆された。
論文 参考訳(メタデータ) (2024-12-18T08:32:53Z) - Scaffolded Language Models with Language Supervision for Mixed-Autonomy: A Survey [52.00674453604779]
本調査は,戦後のLM周辺における新規構造物の設計と最適化に関する文献を整理した。
本稿では,この階層構造を足場型LMと呼び,ツールを用いた多段階プロセスに統合されたLMに焦点を当てる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [68.29746557968107]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。