論文の概要: Video Game Level Design as a Multi-Agent Reinforcement Learning Problem
- arxiv url: http://arxiv.org/abs/2510.04862v1
- Date: Mon, 06 Oct 2025 14:49:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.912768
- Title: Video Game Level Design as a Multi-Agent Reinforcement Learning Problem
- Title(参考訳): マルチエージェント強化学習問題としてのゲームレベル設計
- Authors: Sam Earle, Zehua Jiang, Eugene Vinitsky, Julian Togelius,
- Abstract要約: 強化学習(PCGRL)による手続き的コンテンツ生成は、人間のデータセットを必要とせずに、制御可能なレベルのデザイナエージェントを訓練する方法を提供する。
多エージェント問題としてのレベル生成をフレーミングすることにより、単一エージェントPCGRLの効率ボトルネックを軽減する。
マルチエージェントレベルジェネレータは、分布外マップ形状に一般化できる。
- 参考スコア(独自算出の注目度): 8.07097666519988
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Procedural Content Generation via Reinforcement Learning (PCGRL) offers a method for training controllable level designer agents without the need for human datasets, using metrics that serve as proxies for level quality as rewards. Existing PCGRL research focuses on single generator agents, but are bottlenecked by the need to frequently recalculate heuristics of level quality and the agent's need to navigate around potentially large maps. By framing level generation as a multi-agent problem, we mitigate the efficiency bottleneck of single-agent PCGRL by reducing the number of reward calculations relative to the number of agent actions. We also find that multi-agent level generators are better able to generalize to out-of-distribution map shapes, which we argue is due to the generators' learning more local, modular design policies. We conclude that treating content generation as a distributed, multi-agent task is beneficial for generating functional artifacts at scale.
- Abstract(参考訳): 強化学習(PCGRL)による手続き的コンテンツ生成(Procedural Content Generation)は、人間データセットを必要とせずに、レベル品質を報酬としてプロキシとして機能するメトリクスを使用して、コントロール可能なレベルデザイナエージェントをトレーニングする方法を提供する。
既存のPCGRL研究は、単一のジェネレータエージェントに焦点を当てているが、レベル品質のヒューリスティックを頻繁に計算する必要があることや、エージェントが潜在的に大きな地図をナビゲートする必要があることにボトルネックがある。
マルチエージェント問題としてレベル生成をフレーミングすることにより、エージェントアクション数に対する報酬計算の回数を減らすことにより、シングルエージェントPCGRLの効率ボトルネックを軽減する。
また、マルチエージェントレベルのジェネレータは、より局所的でモジュラーな設計方針を学習するため、分布外マップの形状に一般化できることがわかった。
コンテンツ生成を分散マルチエージェントタスクとして扱うことは,機能的アーティファクトを大規模に生成するのに有用である。
関連論文リスト
- Generative Evolutionary Meta-Solver (GEMS): Scalable Surrogate-Free Multi-Agent Learning [5.217618511306204]
本稿では,一組の潜伏アンカーと一組の無償却ジェネレータで明示的な集団を置き換えるサロゲートフリーフレームワークであるジェネレーション進化メタ(GEMS)を提案する。
GEMSは、不偏のモンテカルロロールアウト、乗法的重み付けメタ力学、およびポリシーセットを適応的に拡張するためのモデルのない経験的オラクルに依存している。
GEMSは最大6倍高速で、PSROより1.3倍少ないメモリ使用量で、同時に報酬を享受できる。
論文 参考訳(メタデータ) (2025-09-27T19:23:38Z) - AgentGym-RL: Training LLM Agents for Long-Horizon Decision Making through Multi-Turn Reinforcement Learning [129.44038804430542]
本稿では,マルチターン対話型意思決定のためのLLMエージェントをRLで学習する新しいフレームワークであるAgentGym-RLを紹介する。
本研究では,探索-探索バランスと安定したRL最適化のためのトレーニング手法であるScalingInter-RLを提案する。
当社のエージェントは、さまざまな環境にまたがる27のタスクで、商用モデルにマッチするか、超えています。
論文 参考訳(メタデータ) (2025-09-10T16:46:11Z) - MALT: Improving Reasoning with Multi-Agent LLM Training [67.76186488361685]
MALT(Multi-Agent LLM Training)は、推論プロセスを生成、検証、改善ステップに分割する、新しいポストトレーニング戦略である。
MATH、GSM8K、CSQAでは、MALTは、それぞれ15.66%、7.42%、9.40%の相対的な改善で同じベースラインLLMを上回っている。
論文 参考訳(メタデータ) (2024-12-02T19:30:36Z) - PCGRL+: Scaling, Control and Generalization in Reinforcement Learning Level Generators [2.334978724544296]
制御可能なデザイナーエージェントを訓練する手段として,PCGRL (Procedural Content Generation) が導入された。
PCGRLはゲームデザイナーにユニークな余裕を提供するが、RLエージェントを訓練する計算集約的なプロセスによって制約される。
我々はJaxにいくつかのPCGRL環境を実装し、GPU上で学習とシミュレーションのあらゆる側面が並列に行われるようにした。
論文 参考訳(メタデータ) (2024-08-22T16:30:24Z) - EvoAgent: Towards Automatic Multi-Agent Generation via Evolutionary Algorithms [55.77492625524141]
EvoAgentは、特殊エージェントをマルチエージェントシステムに自動的に拡張するジェネリックメソッドである。
EvoAgent は LLM エージェントのタスク解決能力を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-06-20T11:49:23Z) - MASP: Scalable GNN-based Planning for Multi-Agent Navigation [18.70078556851899]
Multi-Agent Scalable Graph-based Planner (MASP)は、ナビゲーションタスクのためのゴール条件付き階層型プランナーである。
MASPは、大規模な探索空間を複数の目標条件付き部分空間に分解することで、空間の複雑さを低減するために階層的なフレームワークを採用している。
エージェントの協力とさまざまなチームサイズへの適応のために、エージェントと目標をグラフとしてモデル化し、それらの関係をよりよく捉えます。
論文 参考訳(メタデータ) (2023-12-05T06:05:04Z) - Learning From Good Trajectories in Offline Multi-Agent Reinforcement
Learning [98.07495732562654]
オフラインマルチエージェント強化学習(MARL)は、事前コンパイルされたデータセットから効果的なマルチエージェントポリシーを学ぶことを目的としている。
オフラインのMARLが学んだエージェントは、しばしばこのランダムなポリシーを継承し、チーム全体のパフォーマンスを脅かす。
この問題に対処するために,共有個人軌道(SIT)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-28T18:11:26Z) - Learning Controllable 3D Level Generators [3.95471659767555]
3DドメインMinecraftのためのPCGRLタスクをいくつか紹介する(Mojang Studios, 2009)。
これらのタスクは、ジャンプ、多次元運動、重力といった3D環境でよく見られる余裕を使って、RLベースのジェネレータに挑戦する。
エージェントにこれらのタスクを最適化させ、PCGRLにおける以前の研究の能力を探求する。
論文 参考訳(メタデータ) (2022-06-27T20:43:56Z) - Scalable Multi-Agent Inverse Reinforcement Learning via
Actor-Attention-Critic [54.2180984002807]
マルチエージェント逆逆強化学習 (MA-AIRL) は, 単エージェントAIRLをマルチエージェント問題に適用する最近の手法である。
本稿では,従来の手法よりもサンプル効率が高く,スケーラブルなマルチエージェント逆RLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-24T20:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。