論文の概要: Narrative-to-Scene Generation: An LLM-Driven Pipeline for 2D Game Environments
- arxiv url: http://arxiv.org/abs/2509.04481v1
- Date: Sun, 31 Aug 2025 01:45:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.320377
- Title: Narrative-to-Scene Generation: An LLM-Driven Pipeline for 2D Game Environments
- Title(参考訳): ナラティブ・ツー・シーン生成: 2次元ゲーム環境のためのLLM駆動パイプライン
- Authors: Yi-Chun Chen, Arnav Jhala,
- Abstract要約: 本稿では,ショートナラプロンプトを2次元タイルベースのゲームシーンに変換する軽量パイプラインを提案する。
LLMが生成した物語から、3つの重要な時間枠を特定し、空間的述語を抽出し、視覚的資産を検索する。
層状地形をセルオートマタを用いて生成し、述語構造に接地した空間規則を用いてオブジェクトを配置する。
- 参考スコア(独自算出の注目度): 0.09821874476902966
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent advances in large language models(LLMs) enable compelling story generation, but connecting narrative text to playable visual environments remains an open challenge in procedural content generation(PCG). We present a lightweight pipeline that transforms short narrative prompts into a sequence of 2D tile-based game scenes, reflecting the temporal structure of stories. Given an LLM-generated narrative, our system identifies three key time frames, extracts spatial predicates in the form of "Object-Relation-Object" triples, and retrieves visual assets using affordance-aware semantic embeddings from the GameTileNet dataset. A layered terrain is generated using Cellular Automata, and objects are placed using spatial rules grounded in the predicate structure. We evaluated our system in ten diverse stories, analyzing tile-object matching, affordance-layer alignment, and spatial constraint satisfaction across frames. This prototype offers a scalable approach to narrative-driven scene generation and lays the foundation for future work on multi-frame continuity, symbolic tracking, and multi-agent coordination in story-centered PCG.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、魅力的なストーリー生成を可能にするが、物語テキストを再生可能な視覚環境に接続することは、手続き的コンテンツ生成(PCG)においてオープンな課題である。
本稿では,短い物語のプロンプトを2次元タイルベースのゲームシーンに変換し,物語の時間構造を反映した軽量パイプラインを提案する。
LLM生成の物語から,本システムは3つの重要な時間フレームを識別し,空間的述語を「オブジェクト関係オブジェクト」の形で抽出し,GameTileNetデータセットからアベイランスを意識したセマンティック埋め込みを用いて視覚的アセットを検索する。
層状地形をセルオートマタを用いて生成し、述語構造に接地した空間規則を用いてオブジェクトを配置する。
本研究では, タイルオブジェクトマッチング, 余剰層アライメント, フレーム間の空間的制約満足度を解析し, 10種類の多彩なストーリーでシステム評価を行った。
このプロトタイプは、物語駆動のシーン生成に対するスケーラブルなアプローチを提供し、ストーリー中心のPCGにおける多フレーム連続性、シンボリックトラッキング、マルチエージェント協調の基盤となる。
関連論文リスト
- Agentic 3D Scene Generation with Spatially Contextualized VLMs [67.31920821192323]
本稿では,複雑な3D環境の生成,理解,編集を可能にする新しいパラダイムを提案する。
我々は,VLMが空間コンテキストから反復的に読み取って更新するエージェント型3Dシーン生成パイプラインを開発した。
その結果,我々のフレームワークは多様かつ困難な入力を処理でき,事前の作業では観測できないような一般化のレベルを達成することができることがわかった。
論文 参考訳(メタデータ) (2025-05-26T15:28:17Z) - StoryReasoning Dataset: Using Chain-of-Thought for Scene Understanding and Grounded Story Generation [1.0312968200748118]
ビジュアルストーリーテリングシステムは、フレームをまたいだキャラクターのアイデンティティを維持し、適切な主題にアクションをリンクするのに苦労する。
52,016本の映画画像から得られた4,178個のストーリーを含むデータセットであるStoryReasoningを提案する。
非微調整モデルと比較して,1ストーリー平均で4.06から3.56(-12.3%)の幻覚が減少し,クリエイティビティが2.58から3.38(+31.0%)に改善した。
論文 参考訳(メタデータ) (2025-05-15T13:42:14Z) - DreamRunner: Fine-Grained Compositional Story-to-Video Generation with Retrieval-Augmented Motion Adaptation [60.07447565026327]
本研究では,新しいストーリー・ツー・ビデオ生成手法であるDreamRunnerを提案する。
大規模言語モデル(LLM)を用いて入力スクリプトを構築し、粗粒度シーン計画と細粒度オブジェクトレベルのレイアウトと動き計画の両方を容易にする。
DreamRunnerは、検索拡張されたテストタイムアダプションで、各シーンのオブジェクトのターゲットモーションをキャプチャし、検索されたビデオに基づいたさまざまなモーションカスタマイズをサポートする。
論文 参考訳(メタデータ) (2024-11-25T18:41:56Z) - Story3D-Agent: Exploring 3D Storytelling Visualization with Large Language Models [57.30913211264333]
提案するStory3D-Agentは、提供された物語を3Dレンダリングの可視化に変換する先駆的なアプローチである。
プロシージャモデリングを統合することで,複数文字の動作や動きを正確に制御できるだけでなく,多様な装飾的要素も利用できる。
我々は,ストーリー3D-Agentを徹底的に評価し,その有効性を検証し,3Dストーリー表現を前進させるための基本的な枠組みを提供した。
論文 参考訳(メタデータ) (2024-08-21T17:43:15Z) - See It All: Contextualized Late Aggregation for 3D Dense Captioning [38.14179122810755]
3D高密度キャプションは、オブジェクトを3Dシーンでローカライズし、各オブジェクトに対して記述文を生成するタスクである。
3D高密度キャプションにおける最近のアプローチでは、オブジェクト検出から手作りの部品を使わずにエンドツーエンドのパイプラインを構築するためのトランスフォーマー・エンコーダ・デコーダ・フレームワークが採用されている。
SIA(See-It-All)は3次元高密度キャプションに係わるトランスフォーマーパイプラインであり,遅延アグリゲーションと呼ばれる新しいパラダイムを導入している。
論文 参考訳(メタデータ) (2024-08-14T16:19:18Z) - Open-Universe Indoor Scene Generation using LLM Program Synthesis and Uncurated Object Databases [13.126239167800652]
テキストのプロンプトに応じて屋内シーンを生成するシステムを提案する。
プロンプトはシーン記述の固定語彙に限らない。
生成されたシーンのオブジェクトは、固定されたオブジェクトカテゴリに制限されない。
論文 参考訳(メタデータ) (2024-02-05T01:59:31Z) - TeMO: Towards Text-Driven 3D Stylization for Multi-Object Meshes [67.5351491691866]
我々は,多目的3Dシーンを解析し,そのスタイルを編集する,TeMOと呼ばれる新しいフレームワークを提案する。
提案手法は,高品質なスタイリングコンテンツを合成し,多目的3Dメッシュで既存手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-12-07T12:10:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。