論文の概要: Real-Time World Crafting: Generating Structured Game Behaviors from Natural Language with Large Language Models
- arxiv url: http://arxiv.org/abs/2510.16952v1
- Date: Sun, 19 Oct 2025 18:09:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.222101
- Title: Real-Time World Crafting: Generating Structured Game Behaviors from Natural Language with Large Language Models
- Title(参考訳): リアルタイムワールドクラフト:大規模言語モデルを用いた自然言語からの構造化ゲーム行動の生成
- Authors: Austin Drake, Hang Dong,
- Abstract要約: 本稿では,対話型ゲームエンジンにLarge Language Modelsを安全に統合するための新しいアーキテクチャを提案する。
我々のフレームワークは、LLMを使用してコマンドを制約付きドメイン特化言語に変換することでリスクを軽減する。
本研究では,このシステムを2次元スペルクラフトゲームプロトタイプで評価する。
- 参考スコア(独自算出の注目度): 0.8869777013253825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel architecture for safely integrating Large Language Models (LLMs) into interactive game engines, allowing players to "program" new behaviors using natural language. Our framework mitigates risks by using an LLM to translate commands into a constrained Domain-Specific Language (DSL), which configures a custom Entity-Component-System (ECS) at runtime. We evaluated this system in a 2D spell-crafting game prototype by experimentally assessing models from the Gemini, GPT, and Claude families with various prompting strategies. A validated LLM judge qualitatively rated the outputs, showing that while larger models better captured creative intent, the optimal prompting strategy is task-dependent: Chain-of-Thought improved creative alignment, while few-shot examples were necessary to generate more complex DSL scripts. This work offers a validated LLM-ECS pattern for emergent gameplay and a quantitative performance comparison for developers.
- Abstract(参考訳): 本稿では,対話型ゲームエンジンにLLM(Large Language Models)を安全に統合するための新しいアーキテクチャを提案する。
我々のフレームワークは、LLMを使用して、実行時にカスタムのEntity-Component-System(ECS)を構成する制約付きDomain-Specific Language(DSL)にコマンドを変換することでリスクを軽減します。
我々は,Gemini,GPT,Claudeファミリーのモデルを様々なプロンプト戦略で実験的に評価し,このシステムを2次元スペルクラフトゲームプロトタイプで評価した。
検証済みのLLM判事は、アウトプットを質的に評価し、より大きなモデルの方が創造的な意図を捕えたが、最適なプロンプト戦略はタスク依存であることを示した。
この研究は、創発的なゲームプレイのための検証済みのLLM-ECSパターンと、開発者に定量的なパフォーマンス比較を提供する。
関連論文リスト
- Automated Unity Game Template Generation from GDDs via NLP and Multi-Modal LLMs [0.0]
本稿では,NLP(Natural Language Processing)とLLM(Multi-modal Large Language Models)を用いたゲームテンプレートの自動生成フレームワークを提案する。
本稿では,ゲームデザイン文書(GDD)を解析し,構造化されたゲーム仕様を抽出するエンド・ツー・エンドシステムを提案する。
設計資料で定義されたコアメカニクス、システム、アーキテクチャを実装した、Unity互換のC#コードを合成します。
論文 参考訳(メタデータ) (2025-09-07T21:53:37Z) - GVGAI-LLM: Evaluating Large Language Model Agents with Infinite Games [8.640618631999173]
GVGAI-LLMは,大規模言語モデル(LLM)の推論と問題解決能力を評価するためのゲームベンチマークである。
General Video Game AIフレームワーク上に構築され、既存のLLMベンチマークとは異なるタスクを処理するモデルの能力をテストするために設計された、アーケードスタイルのゲームの多種多様なコレクションを備えている。
論文 参考訳(メタデータ) (2025-08-11T22:17:07Z) - Monte Carlo Planning with Large Language Model for Text-Based Game Agents [27.385517721352368]
動的メモリ誘導大言語モデル (MC-DML) を用いたモンテカルロ計画法を提案する。
MC-DMLは、大規模言語モデル(LLM)の言語理解と推論能力と、ツリー探索アルゴリズムの探索的優位性を利用する。
MC-DMLアルゴリズムは,初期計画段階での各種ゲームの性能を著しく向上することを示した。
論文 参考訳(メタデータ) (2025-04-23T16:23:15Z) - Evaluating Creativity and Deception in Large Language Models: A Simulation Framework for Multi-Agent Balderdash [6.65572931991284]
大きな言語モデル(LLM)は複雑なタスクや対話的な環境において印象的な機能を示している。
本稿では, LLMの創造性と論理的推論の両面を評価するために, Balderdash を利用したシミュレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-15T18:42:48Z) - clembench-2024: A Challenging, Dynamic, Complementary, Multilingual Benchmark and Underlying Flexible Framework for LLMs as Multi-Action Agents [19.989503513817095]
大きな言語モデルは、特定の能力を探索する会話ゲームに"セルフプレイ"するよう促すことができる。
本稿では,このようなゲームプレイ環境を構築するためのフレームワークの1つを取り上げ,その有効性を評価機器として検証する。
論文 参考訳(メタデータ) (2024-05-31T14:43:31Z) - Multi-modal Instruction Tuned LLMs with Fine-grained Visual Perception [63.03288425612792]
マルチモーダル参照から画素単位のオブジェクト認識と自然言語記述を生成できる汎用MLLMモデルであるbfAnyRefを提案する。
本モデルでは,領域レベルの参照表現生成とセグメンテーションの多様さを含む,複数のベンチマークにおける最先端結果を実現する。
論文 参考訳(メタデータ) (2024-03-05T13:45:46Z) - L2CEval: Evaluating Language-to-Code Generation Capabilities of Large
Language Models [102.00201523306986]
大規模言語モデル(LLM)の言語間コード生成能力を体系的に評価するL2CEvalを提案する。
モデルのサイズ、事前学習データ、命令チューニング、異なるプロンプトメソッドなど、それらのパフォーマンスに影響を与える可能性のある要因を分析する。
モデル性能の評価に加えて、モデルに対する信頼性校正を計測し、出力プログラムの人間による評価を行う。
論文 参考訳(メタデータ) (2023-09-29T17:57:00Z) - Examining Scaling and Transfer of Language Model Architectures for
Machine Translation [51.69212730675345]
言語モデル(LM)は単一のレイヤのスタックで処理し、エンコーダ・デコーダモデル(EncDec)は入力と出力の処理に別々のレイヤスタックを使用する。
機械翻訳において、EncDecは長年好まれてきたアプローチであるが、LMの性能についての研究はほとんどない。
論文 参考訳(メタデータ) (2022-02-01T16:20:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。