論文の概要: Fly, Fail, Fix: Iterative Game Repair with Reinforcement Learning and Large Multimodal Models
- arxiv url: http://arxiv.org/abs/2507.12666v1
- Date: Wed, 16 Jul 2025 22:45:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.291662
- Title: Fly, Fail, Fix: Iterative Game Repair with Reinforcement Learning and Large Multimodal Models
- Title(参考訳): Fly, Fail, Fix: 強化学習と大規模マルチモーダルモデルによる反復的なゲーム修復
- Authors: Alex Zook, Josef Spjut, Jonathan Tremblay,
- Abstract要約: ゲームデザインは、静的なルールとコンテンツが動的プレイヤーの振る舞いにどのように変換されるかを理解することに焦点を当てている。
ゲームをプレイする強化学習(RL)エージェントと,大規模なマルチモーダルモデル(LMM)を組み合わせて,このギャップを埋める自動設計フレームワークを提案する。
LMMデザイナは、ゲームプレイ目標と現在のゲーム設定を受信し、プレイトレースを分析し、その設定を編集して、目標に向けた将来の行動を判断する。
- 参考スコア(独自算出の注目度): 7.989185500830854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Game design hinges on understanding how static rules and content translate into dynamic player behavior - something modern generative systems that inspect only a game's code or assets struggle to capture. We present an automated design iteration framework that closes this gap by pairing a reinforcement learning (RL) agent, which playtests the game, with a large multimodal model (LMM), which revises the game based on what the agent does. In each loop the RL player completes several episodes, producing (i) numerical play metrics and/or (ii) a compact image strip summarising recent video frames. The LMM designer receives a gameplay goal and the current game configuration, analyses the play traces, and edits the configuration to steer future behaviour toward the goal. We demonstrate results that LMMs can reason over behavioral traces supplied by RL agents to iteratively refine game mechanics, pointing toward practical, scalable tools for AI-assisted game design.
- Abstract(参考訳): ゲームデザインは、静的なルールとコンテンツが動的プレイヤーの振る舞いにどのように変換されるかを理解することに焦点を当てている。
本稿では,このギャップを埋めるために,強化学習エージェント(RL)と大規模マルチモーダルモデル(LMM)をペアリングし,エージェントの動作に基づいてゲームを改訂する。
各ループにおいて、RLプレーヤーは複数のエピソードを完了し、生成する。
(i)数値プレイ指標及び/又は
(ii)最近の映像フレームを要約したコンパクトな画像ストリップ。
LMMデザイナは、ゲームプレイ目標と現在のゲーム設定を受信し、プレイトレースを分析し、その設定を編集して、目標に向けた将来の行動を判断する。
LMMがRLエージェントから供給される行動トレースを推論してゲームメカニクスを反復的に洗練し、AI支援型ゲームデザインのための実践的でスケーラブルなツールを指し示す結果が得られた。
関連論文リスト
- Play to Generalize: Learning to Reason Through Game Play [11.778612579151067]
そこで我々は,MLLMがアーケード的なゲームによってマルチモーダル推論のドメイン外一般化を開発する,新たな学習パラダイムであるVisual Game Learningを提案する。
ルールベースのゲームは、制御可能でスケーラブルなプレテキストタスクとして機能する。
論文 参考訳(メタデータ) (2025-06-09T17:59:57Z) - Orak: A Foundational Benchmark for Training and Evaluating LLM Agents on Diverse Video Games [16.187737674778234]
textbfbenchnameは,多種多様な現実世界のビデオゲームを対象とした大規模言語モデル(LLM)エージェントの訓練と評価を目的としたベンチマークである。
LLMの一貫した評価を支援するために,モデルコンテキストプロトコル(MCP)に基づくプラグアンドプレイインタフェースを導入する。
Orakは総合的な評価フレームワークを提供しており、一般的なゲームスコアのリーダーボード、LLMバトルアリーナ、視覚入力状態、エージェント戦略、微調整効果の詳細な分析を含んでいる。
論文 参考訳(メタデータ) (2025-06-04T06:40:33Z) - Scaling Laws for Imitation Learning in Single-Agent Games [28.257046559127875]
我々は,モデルとデータサイズを慎重にスケールアップすることで,シングルエージェントゲームにおける模倣学習環境に類似した改善がもたらされるかどうかを検討する。
われわれはまずAtariのさまざまなゲームについて実験を行い、その後NetHackの非常に挑戦的なゲームに焦点を当てた。
IL損失と平均戻り値は計算予算とスムーズに一致し,相関関係が強く,計算最適ILエージェントの訓練には電力法則が適用されることがわかった。
論文 参考訳(メタデータ) (2023-07-18T16:43:03Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Automated Play-Testing Through RL Based Human-Like Play-Styles
Generation [0.0]
強化学習は、ビデオゲームのテストを自動化する必要性に対する有望な答えである。
CARMI: aを提示します。
入力として相対測度を持つエージェント。
以前は目に見えないレベルであっても、プレイヤーのプレースタイルをエミュレートできるエージェント。
論文 参考訳(メタデータ) (2022-11-29T14:17:20Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - Metagame Autobalancing for Competitive Multiplayer Games [0.10499611180329801]
ゲーム設計において,マルチプレイヤーゲームのバランスをとるためのツールを提案する。
我々のアプローチでは,設計者がメタゲームターゲットの直感的なグラフィカル表現を構築する必要がある。
このツールの能力は、Rock-Paper-Scissors から継承された例や、より複雑な非対称戦闘ゲームにおいて示す。
論文 参考訳(メタデータ) (2020-06-08T08:55:30Z) - Learning to Simulate Dynamic Environments with GameGAN [109.25308647431952]
本稿では,エージェントが環境と対話するのを見ることでシミュレーターを学習することを目的とする。
ゲームGANは,学習中にスクリーンプレイやキーボード操作を取り入れることで,所望のゲームを視覚的に模倣することを学習する生成モデルである。
論文 参考訳(メタデータ) (2020-05-25T14:10:17Z) - Disentangling Controllable Object through Video Prediction Improves
Visual Reinforcement Learning [82.25034245150582]
多くの視覚に基づく強化学習問題において、エージェントは視野内の可動物体を制御する。
制御可能なオブジェクトを観測信号から切り離すためのエンドツーエンド学習フレームワークを提案する。
不整合表現は、RLがエージェントに追加の観察チャネルとして有用であることが示されている。
論文 参考訳(メタデータ) (2020-02-21T05:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。