論文の概要: Procedural Game Level Design with Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2510.15120v1
- Date: Thu, 16 Oct 2025 20:26:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.383142
- Title: Procedural Game Level Design with Deep Reinforcement Learning
- Title(参考訳): 深層強化学習による手続き型ゲームレベルの設計
- Authors: Miraç Buğra Özkan,
- Abstract要約: プロシージャコンテンツ生成(PCG)はゲーム開発においてますます人気が高まっている。
本研究では, 深部強化学習(DRL)をベースとした3次元環境下でのプロシージャレベルの設計手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Procedural content generation (PCG) has become an increasingly popular technique in game development, allowing developers to generate dynamic, replayable, and scalable environments with reduced manual effort. In this study, a novel method for procedural level design using Deep Reinforcement Learning (DRL) within a Unity-based 3D environment is proposed. The system comprises two agents: a hummingbird agent, acting as a solver, and a floating island agent, responsible for generating and placing collectible objects (flowers) on the terrain in a realistic and context-aware manner. The hummingbird is trained using the Proximal Policy Optimization (PPO) algorithm from the Unity ML-Agents toolkit. It learns to navigate through the terrain efficiently, locate flowers, and collect them while adapting to the ever-changing procedural layout of the island. The island agent is also trained using the Proximal Policy Optimization (PPO) algorithm. It learns to generate flower layouts based on observed obstacle positions, the hummingbird's initial state, and performance feedback from previous episodes. The interaction between these agents leads to emergent behavior and robust generalization across various environmental configurations. The results demonstrate that the approach not only produces effective and efficient agent behavior but also opens up new opportunities for autonomous game level design driven by machine learning. This work highlights the potential of DRL in enabling intelligent agents to both generate and solve content in virtual environments, pushing the boundaries of what AI can contribute to creative game development processes.
- Abstract(参考訳): プロシージャコンテンツ生成(PCG)はゲーム開発においてますます普及し、開発者は手作業で動的で再生可能でスケーラブルな環境を作れるようになった。
本研究では, 深部強化学習(DRL)をベースとした3次元環境下でのプロシージャレベルの設計手法を提案する。
このシステムは、解決剤として機能するハチドリ剤と、現実的で状況に配慮した地形上で収集可能な物体(花)を発生・配置する浮島剤とからなる。
このハチドリは、Unity ML-AgentsツールキットのPPOアルゴリズムを用いて訓練されている。
効率的に地形を探索し、花を発見、そして島の絶え間なく変化する手続き的レイアウトに適応しながらそれらを収集することを学ぶ。
島エージェントは、PPOアルゴリズムを用いて訓練される。
観測された障害物位置、ハチドリの初期状態、過去のエピソードのパフォーマンスフィードバックに基づいて、花の配置を生成することを学ぶ。
これらのエージェント間の相互作用は、様々な環境構成における創発的な挙動と堅牢な一般化をもたらす。
その結果、このアプローチは効果的で効率的なエージェント動作を生み出すだけでなく、機械学習によって駆動される自律的なゲームレベル設計の新たな機会を開くことが示される。
この研究は、インテリジェントエージェントが仮想環境におけるコンテンツの生成と解決を可能にするDRLの可能性を強調し、AIが創造的なゲーム開発プロセスに寄与するものの境界を押し上げる。
関連論文リスト
- Grammarization-Based Grasping with Deep Multi-Autoencoder Latent Space Exploration by Reinforcement Learning Agent [0.0]
本稿では,高次元の目標とグリップの特徴を圧縮するアイデアに基づく,ロボットグルーピングのための新しいフレームワークを提案する。
提案手法は,対象とグリップに専用の3つのオートエンコーダと,その潜在表現を融合させる第3のオートエンコーダを用いて,把握を簡略化する。
論文 参考訳(メタデータ) (2024-11-13T12:26:08Z) - Octopus: Embodied Vision-Language Programmer from Environmental Feedback [58.04529328728999]
身体視覚言語モデル(VLM)は多モード認識と推論において大きな進歩を遂げた。
このギャップを埋めるために、我々は、計画と操作を接続する媒体として実行可能なコード生成を使用する、具体化された視覚言語プログラマであるOctopusを紹介した。
Octopusは、1)エージェントの視覚的およびテキスト的タスクの目的を正確に理解し、2)複雑なアクションシーケンスを定式化し、3)実行可能なコードを生成するように設計されている。
論文 参考訳(メタデータ) (2023-10-12T17:59:58Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - Playing a 2D Game Indefinitely using NEAT and Reinforcement Learning [0.0]
アルゴリズムの性能は、アルゴリズムが入力される環境において、アルゴリズムに従って振る舞う人工エージェントを用いて比較することができる。
人工エージェントに適用されるアルゴリズムはNeuroEvolution of Augmenting Topologies (NEAT)とReinforcement Learningである。
論文 参考訳(メタデータ) (2022-07-28T15:01:26Z) - Modular Procedural Generation for Voxel Maps [2.6811189633660613]
本稿では,Minecraft などのボクセル環境を対象とした PCG アルゴリズムの実装を容易にするオープンソースライブラリ mcg を提案する。
この図書館は人間と機械のチーム研究を念頭に設計されており、世代に「トップダウン」なアプローチを採っている。
このアプローチの利点は、仮想環境の迅速でスケーラブルで効率的な開発、セマンティックレベルで環境の統計を制御できる機能、およびプレイヤーのアクションにリアルタイムで応答して新しい環境を生成する機能です。
論文 参考訳(メタデータ) (2021-04-18T16:21:35Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - Demonstration-efficient Inverse Reinforcement Learning in Procedurally
Generated Environments [137.86426963572214]
逆強化学習(Inverse Reinforcement Learning)は、専門家によるデモンストレーションから報酬関数を外挿する。
提案手法であるDE-AIRLは、実演効率が高く、完全手続き領域に一般化する報酬関数を外挿できることを示す。
論文 参考訳(メタデータ) (2020-12-04T11:18:02Z) - Forgetful Experience Replay in Hierarchical Reinforcement Learning from
Demonstrations [55.41644538483948]
本稿では,複雑な視覚環境において,エージェントが低品質な実演を行えるようにするためのアプローチの組み合わせを提案する。
提案した目標指向のリプレイバッファ構築により,エージェントはデモにおいて複雑な階層的タスクを解くためのサブゴールを自動的に強調することができる。
私たちのアルゴリズムに基づくこのソリューションは、有名なMineRLコンペティションのすべてのソリューションを破り、エージェントがMinecraft環境でダイヤモンドをマイニングすることを可能にする。
論文 参考訳(メタデータ) (2020-06-17T15:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。