論文の概要: Zero-shot 3D Map Generation with LLM Agents: A Dual-Agent Architecture for Procedural Content Generation
- arxiv url: http://arxiv.org/abs/2512.10501v2
- Date: Fri, 12 Dec 2025 08:48:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 13:50:29.192958
- Title: Zero-shot 3D Map Generation with LLM Agents: A Dual-Agent Architecture for Procedural Content Generation
- Title(参考訳): LLMエージェントを用いたゼロショット3Dマップ生成:手続き的コンテンツ生成のためのデュアルエージェントアーキテクチャ
- Authors: Lim Chien Her, Ming Yan, Yunshu Bai, Ruihao Li, Hao Zhang,
- Abstract要約: ゼロショットPCGパラメータ設定にLLMエージェントを利用する学習自由アーキテクチャを提案する。
我々のシステムはアクターエージェントとCriticエージェントをペアリングし、ツールパラメータを自律的に理由づける反復ワークフローを可能にする。
- 参考スコア(独自算出の注目度): 8.398818816613806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Procedural Content Generation (PCG) offers scalable methods for algorithmically creating complex, customizable worlds. However, controlling these pipelines requires the precise configuration of opaque technical parameters. We propose a training-free architecture that utilizes LLM agents for zero-shot PCG parameter configuration. While Large Language Models (LLMs) promise a natural language interface for PCG tools, off-the-shelf models often fail to bridge the semantic gap between abstract user instructions and strict parameter specifications. Our system pairs an Actor agent with a Critic agent, enabling an iterative workflow where the system autonomously reasons over tool parameters and refines configurations to progressively align with human design preferences. We validate this approach on the generation of various 3D maps, establishing a new benchmark for instruction-following in PCG. Experiments demonstrate that our approach outperforms single-agent baselines, producing diverse and structurally valid environments from natural language descriptions. These results demonstrate that off-the-shelf LLMs can be effectively repurposed as generalized agents for arbitrary PCG tools. By shifting the burden from model training to architectural reasoning, our method offers a scalable framework for mastering complex software without task-specific fine-tuning.
- Abstract(参考訳): 手続き型コンテンツ生成(PCG)は、複雑でカスタマイズ可能な世界をアルゴリズムで生成するスケーラブルな方法を提供する。
しかし、これらのパイプラインを制御するには、不透明な技術的なパラメータを正確に設定する必要がある。
ゼロショットPCGパラメータ設定にLLMエージェントを利用する学習自由アーキテクチャを提案する。
大型言語モデル(LLM)はPCGツールの自然言語インタフェースを約束するが、既製のモデルは抽象的なユーザー命令と厳密なパラメータ仕様の間のセマンティックなギャップを埋めるのに失敗することが多い。
我々のシステムはアクターエージェントとCriticエージェントをペアリングし、ツールパラメータを自律的に理由づける反復的なワークフローを可能にし、人間のデザイン嗜好と漸進的に整合するように構成を洗練します。
本手法は,PCGにおける命令追従のための新しいベンチマークを構築し,様々な3Dマップの生成に有効であることを示す。
実験により,本手法は単一エージェントベースラインよりも優れており,自然言語記述から多様かつ構造的に有効な環境を創出できることが示された。
これらの結果から,市販のLCMを任意のPCGツールの汎用エージェントとして効果的に再利用できることが示唆された。
モデルトレーニングからアーキテクチャ推論へ重荷を移すことで、タスク固有の微調整なしで複雑なソフトウェアをマスターするためのスケーラブルなフレームワークを提供する。
関連論文リスト
- FABRIC: Framework for Agent-Based Realistic Intelligence Creation [3.940391073007047]
大規模言語モデル(LLM)はエージェントとしてますます多くデプロイされ、目標を分解し、ツールを実行し、動的環境で結果を検証することが期待されている。
本稿では,LLMのみを用いたエージェントデータの統一化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-20T18:20:22Z) - A Lightweight Large Language Model-Based Multi-Agent System for 2D Frame Structural Analysis [21.13581042992661]
大規模言語モデル(LLM)は、工学における自律的エージェントの強化に最近使用されている。
本稿では、2次元フレームの有限要素モデリングを自動化するLLMベースのマルチエージェントシステムを提案する。
このシステムは10回の試行で80%以上の精度を達成し、Gemini-2.5 ProとChatGPT-4oモデルを上回っている。
論文 参考訳(メタデータ) (2025-10-06T22:12:52Z) - Feedback-Driven Tool-Use Improvements in Large Language Models via Automated Build Environments [70.42705564227548]
大規模言語モデル(LLM)のための環境自動構築パイプラインを提案する。
これにより、外部ツールに頼ることなく、詳細な測定可能なフィードバックを提供する高品質なトレーニング環境の作成が可能になる。
また、ツール使用の精度とタスク実行の完全性の両方を評価する検証可能な報酬機構も導入する。
論文 参考訳(メタデータ) (2025-08-12T09:45:19Z) - ORFS-agent: Tool-Using Agents for Chip Design Optimization [0.8088986164437757]
大規模言語モデル(LLM)は、このような高次元最適化タスク内で学習と推論を行う新しい機会を提供する。
LLMをベースとした反復最適化エージェントORFS-agentを導入し,パラメータチューニングをオープンソースのハードウェア設計フローで自動化する。
2つの異なる技術ノードと様々な回路ベンチマークに関する実証的な評価は、ORFSエージェントがルーティングされたワイヤ長と有効クロック期間の両方を13%以上改善できることを示している。
論文 参考訳(メタデータ) (2025-06-10T01:38:57Z) - Learning to Reason and Navigate: Parameter Efficient Action Planning with Large Language Models [63.765846080050906]
本稿では,大規模言語モデル (PEAP-LLM) を用いたパラメータ効率の高いアクションプランナを提案する。
実験により,提案したREVERIEモデルが従来の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2025-05-12T12:38:20Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Integrating LLMs and Decision Transformers for Language Grounded
Generative Quality-Diversity [0.0]
品質多様性(Quality-Diversity)は最適化の一分野であり、強化学習と制御ドメインの問題によく適用される。
本稿では,レパートリーをトラジェクトリの自然言語記述で拡張する大規模言語モデルを提案する。
また、このような生成エージェントの性能を評価するためのLCMベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-25T10:00:06Z) - Multi-Agent Reinforcement Learning for Microprocessor Design Space
Exploration [71.95914457415624]
マイクロプロセッサアーキテクトは、高性能でエネルギー効率の追求において、ドメイン固有のカスタマイズにますます頼っている。
この問題に対処するために,Multi-Agent RL (MARL) を利用した別の定式化を提案する。
評価の結果,MARLの定式化は単エージェントRLのベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-11-29T17:10:24Z) - Procedures as Programs: Hierarchical Control of Situated Agents through
Natural Language [81.73820295186727]
エージェント命令と制御のための階層的な手続き的知識を表現する強力な手法である,プログラムとしての手続きの形式化を提案する。
NL命令に対するIQAおよびALFREDデータセット上で、このフレームワークをインスタンス化する。
論文 参考訳(メタデータ) (2021-09-16T20:36:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。