論文の概要: Real-Time World Crafting: Generating Structured Game Behaviors from Natural Language with Large Language Models
- arxiv url: http://arxiv.org/abs/2510.16952v1
- Date: Sun, 19 Oct 2025 18:09:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.222101
- Title: Real-Time World Crafting: Generating Structured Game Behaviors from Natural Language with Large Language Models
- Title(参考訳): リアルタイムワールドクラフト:大規模言語モデルを用いた自然言語からの構造化ゲーム行動の生成
- Authors: Austin Drake, Hang Dong,
- Abstract要約: 本稿では,対話型ゲームエンジンにLarge Language Modelsを安全に統合するための新しいアーキテクチャを提案する。
我々のフレームワークは、LLMを使用してコマンドを制約付きドメイン特化言語に変換することでリスクを軽減する。
本研究では,このシステムを2次元スペルクラフトゲームプロトタイプで評価する。
- 参考スコア(独自算出の注目度): 0.8869777013253825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel architecture for safely integrating Large Language Models (LLMs) into interactive game engines, allowing players to "program" new behaviors using natural language. Our framework mitigates risks by using an LLM to translate commands into a constrained Domain-Specific Language (DSL), which configures a custom Entity-Component-System (ECS) at runtime. We evaluated this system in a 2D spell-crafting game prototype by experimentally assessing models from the Gemini, GPT, and Claude families with various prompting strategies. A validated LLM judge qualitatively rated the outputs, showing that while larger models better captured creative intent, the optimal prompting strategy is task-dependent: Chain-of-Thought improved creative alignment, while few-shot examples were necessary to generate more complex DSL scripts. This work offers a validated LLM-ECS pattern for emergent gameplay and a quantitative performance comparison for developers.
- Abstract(参考訳): 本稿では,対話型ゲームエンジンにLLM(Large Language Models)を安全に統合するための新しいアーキテクチャを提案する。
我々のフレームワークは、LLMを使用して、実行時にカスタムのEntity-Component-System(ECS)を構成する制約付きDomain-Specific Language(DSL)にコマンドを変換することでリスクを軽減します。
我々は,Gemini,GPT,Claudeファミリーのモデルを様々なプロンプト戦略で実験的に評価し,このシステムを2次元スペルクラフトゲームプロトタイプで評価した。
検証済みのLLM判事は、アウトプットを質的に評価し、より大きなモデルの方が創造的な意図を捕えたが、最適なプロンプト戦略はタスク依存であることを示した。
この研究は、創発的なゲームプレイのための検証済みのLLM-ECSパターンと、開発者に定量的なパフォーマンス比較を提供する。
関連論文リスト
- Not All Tokens Matter: Data-Centric Optimization for Efficient Code Summarization [46.365359894614706]
コード生成タスクにおいて,システムプロンプトがILMやCLMにどのように影響するかを評価する。
120のモデル構成にまたがる評価フレームワークにより,システムの影響がモデルスケールで増大することが明らかとなった。
JavaはPythonよりもシステムプロンプトのバリエーションに対する感度が高い。
論文 参考訳(メタデータ) (2026-01-28T00:45:28Z) - Bridging the Knowledge Void: Inference-time Acquisition of Unfamiliar Programming Languages for Coding Tasks [22.908904483320953]
コーディングタスクにおけるLarge Language Models (LLM) は、しばしばその広範な事前学習コーパスの反映である。
動作プリミティブのセットをLCMに装備する一般のIRAフレームワークであるIRAエージェントを提案する。
我々は,Cangjie 用の ILA エージェントをインスタンス化し,コード生成,翻訳,プログラム修復タスクのパフォーマンスを評価する。
論文 参考訳(メタデータ) (2026-01-16T09:06:47Z) - Automated Unity Game Template Generation from GDDs via NLP and Multi-Modal LLMs [0.0]
本稿では,NLP(Natural Language Processing)とLLM(Multi-modal Large Language Models)を用いたゲームテンプレートの自動生成フレームワークを提案する。
本稿では,ゲームデザイン文書(GDD)を解析し,構造化されたゲーム仕様を抽出するエンド・ツー・エンドシステムを提案する。
設計資料で定義されたコアメカニクス、システム、アーキテクチャを実装した、Unity互換のC#コードを合成します。
論文 参考訳(メタデータ) (2025-09-07T21:53:37Z) - GVGAI-LLM: Evaluating Large Language Model Agents with Infinite Games [8.640618631999173]
GVGAI-LLMは,大規模言語モデル(LLM)の推論と問題解決能力を評価するためのゲームベンチマークである。
General Video Game AIフレームワーク上に構築され、既存のLLMベンチマークとは異なるタスクを処理するモデルの能力をテストするために設計された、アーケードスタイルのゲームの多種多様なコレクションを備えている。
論文 参考訳(メタデータ) (2025-08-11T22:17:07Z) - Monte Carlo Planning with Large Language Model for Text-Based Game Agents [27.385517721352368]
動的メモリ誘導大言語モデル (MC-DML) を用いたモンテカルロ計画法を提案する。
MC-DMLは、大規模言語モデル(LLM)の言語理解と推論能力と、ツリー探索アルゴリズムの探索的優位性を利用する。
MC-DMLアルゴリズムは,初期計画段階での各種ゲームの性能を著しく向上することを示した。
論文 参考訳(メタデータ) (2025-04-23T16:23:15Z) - Evaluating Creativity and Deception in Large Language Models: A Simulation Framework for Multi-Agent Balderdash [6.65572931991284]
大きな言語モデル(LLM)は複雑なタスクや対話的な環境において印象的な機能を示している。
本稿では, LLMの創造性と論理的推論の両面を評価するために, Balderdash を利用したシミュレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-15T18:42:48Z) - LLM2CLIP: Powerful Language Model Unlocks Richer Visual Representation [72.02635550088546]
この研究は、大規模言語モデル(LLM)がCLIPの機能をどのように強化するか、特により長く複雑なイメージキャプションを処理するために検討する。
キャプション・トゥ・キャプション・トゥ・キャプション・トゥ・コントラスト・ファインチューニング・フレームワークを導入し,LLM出力の識別品質を大幅に向上させた。
提案手法はLoRA法よりも優れ,より優れた性能で4倍近い高速トレーニングを実現している。
論文 参考訳(メタデータ) (2024-11-07T18:59:16Z) - clembench-2024: A Challenging, Dynamic, Complementary, Multilingual Benchmark and Underlying Flexible Framework for LLMs as Multi-Action Agents [19.989503513817095]
大きな言語モデルは、特定の能力を探索する会話ゲームに"セルフプレイ"するよう促すことができる。
本稿では,このようなゲームプレイ環境を構築するためのフレームワークの1つを取り上げ,その有効性を評価機器として検証する。
論文 参考訳(メタデータ) (2024-05-31T14:43:31Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
CodeGRAGは、制御フローとそれらのデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミングドメインの知識をよりよく解釈する。
CodeGRAGはLLMのコード生成能力を大幅に改善し、言語間コード生成のパフォーマンス向上も実現している。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Multi-modal Instruction Tuned LLMs with Fine-grained Visual Perception [63.03288425612792]
マルチモーダル参照から画素単位のオブジェクト認識と自然言語記述を生成できる汎用MLLMモデルであるbfAnyRefを提案する。
本モデルでは,領域レベルの参照表現生成とセグメンテーションの多様さを含む,複数のベンチマークにおける最先端結果を実現する。
論文 参考訳(メタデータ) (2024-03-05T13:45:46Z) - L2CEval: Evaluating Language-to-Code Generation Capabilities of Large
Language Models [102.00201523306986]
大規模言語モデル(LLM)の言語間コード生成能力を体系的に評価するL2CEvalを提案する。
モデルのサイズ、事前学習データ、命令チューニング、異なるプロンプトメソッドなど、それらのパフォーマンスに影響を与える可能性のある要因を分析する。
モデル性能の評価に加えて、モデルに対する信頼性校正を計測し、出力プログラムの人間による評価を行う。
論文 参考訳(メタデータ) (2023-09-29T17:57:00Z) - Extrapolating Multilingual Understanding Models as Multilingual
Generators [82.1355802012414]
本稿では,多言語理解モデルに統一モデルを得るための生成能力を付与する手法について検討する。
少数の新しいパラメータを持つ多言語ジェネレータにエンコーダを適用するために,textbfSemantic-textbfGuided textbfAlignment-then-Denoising (SGA)アプローチを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:33:21Z) - Examining Scaling and Transfer of Language Model Architectures for
Machine Translation [51.69212730675345]
言語モデル(LM)は単一のレイヤのスタックで処理し、エンコーダ・デコーダモデル(EncDec)は入力と出力の処理に別々のレイヤスタックを使用する。
機械翻訳において、EncDecは長年好まれてきたアプローチであるが、LMの性能についての研究はほとんどない。
論文 参考訳(メタデータ) (2022-02-01T16:20:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。