論文の概要: From Narrative to Action: A Hierarchical LLM-Agent Framework for Human Mobility Generation
- arxiv url: http://arxiv.org/abs/2510.24802v1
- Date: Tue, 28 Oct 2025 00:26:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.578584
- Title: From Narrative to Action: A Hierarchical LLM-Agent Framework for Human Mobility Generation
- Title(参考訳): ナラティブからアクションへ:ヒューマンモビリティ生成のための階層的LLM-Agentフレームワーク
- Authors: Qiumeng Li, Chunhou Ji, Xinyue Liu,
- Abstract要約: 大きな言語モデル(LLM)は潜在的な可能性を示すが、厳密な構造的コンプライアンスと創造的推論のバランスをとるのに苦労する。
本研究では,ハイレベルな物語推論,中間レベルのリフレクティブプランニングを統合した階層型LLM-Agentフレームワークを提案する。
本研究では,データ駆動型パラダイムから空間駆動型シミュレーションへの合成モビリティ生成を推し進める。
- 参考スコア(独自算出の注目度): 3.242664635630543
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Understanding and replicating human mobility requires not only spatial-temporal accuracy but also an awareness of the cognitive hierarchy underlying real-world travel decisions. Traditional agent-based or deep learning models can reproduce statistical patterns of movement but fail to capture the semantic coherence and causal logic of human behavior. Large language models (LLMs) show potential, but struggle to balance creative reasoning with strict structural compliance. This study proposes a Hierarchical LLM-Agent Framework, termed Narrative-to-Action, that integrates high-level narrative reasoning, mid-level reflective planning, and low-level behavioral execution within a unified cognitive hierarchy. At the macro level, one agent is employed as a "creative writer" to produce diary-style narratives rich in motivation and context, then uses another agent as a "structural parser" to convert narratives into machine-readable plans. A dynamic execution module further grounds agents in geographic environments and enables adaptive behavioral adjustments guided by a novel occupation-aware metric, Mobility Entropy by Occupation (MEO), which captures heterogeneous schedule flexibility across different occupational personalities. At the micro level, the agent executes concrete actions-selecting locations, transportation modes, and time intervals-through interaction with an environmental simulation. By embedding this multi-layer cognitive process, the framework produces not only synthetic trajectories that align closely with real-world patterns but also interpretable representations of human decision logic. This research advances synthetic mobility generation from a data-driven paradigm to a cognition-driven simulation, providing a scalable pathway for understanding, predicting, and synthesizing complex urban mobility behaviors through hierarchical LLM agents.
- Abstract(参考訳): 人間のモビリティを理解し、複製するには、空間的時間的正確さだけでなく、現実世界の旅行決定の基礎となる認知階層の認識が必要である。
伝統的なエージェントベースまたはディープラーニングモデルは、統計的な動きパターンを再現することができるが、人間の行動のセマンティック・コヒーレンスと因果論理を捉えることができない。
大きな言語モデル(LLM)は潜在的な可能性を示すが、厳密な構造的コンプライアンスと創造的推論のバランスをとるのに苦労する。
本研究では,ハイレベルな物語推論,中レベルなリフレクティブプランニング,低レベルな行動実行を統合された認知階層内に組み込んだ階層型LLM-Agentフレームワーク,Narrative-to-Actionを提案する。
マクロレベルでは、あるエージェントが「創造的な作家」として、モチベーションと文脈に富んだ日記スタイルの物語を制作し、別のエージェントを「構造解析」として使用して、物語を機械可読プランに変換する。
動的実行モジュールは、地理的環境においてさらにエージェントを接地し、新しい職業対応メトリックであるモビリティ・エントロピー(MEO)によって誘導される適応的な行動調整を可能にする。
マイクロレベルでは、エージェントは環境シミュレーションと相互作用して具体的な行動選択場所、輸送モード、時間間隔を実行する。
この多層認知プロセスの埋め込みにより、このフレームワークは現実世界のパターンと密接に一致した合成軌道を生成するだけでなく、人間の決定論理の解釈可能な表現も生成する。
本研究では,データ駆動型パラダイムから認知駆動型シミュレーションへの合成モビリティ生成を推進し,階層的LLMエージェントによる複雑な都市移動行動の理解,予測,合成のためのスケーラブルな経路を提供する。
関連論文リスト
- Fundamentals of Building Autonomous LLM Agents [64.39018305018904]
本稿では,大規模言語モデル(LLM)を用いたエージェントのアーキテクチャと実装手法について概説する。
この研究は、複雑なタスクを自動化し、人間の能力でパフォーマンスのギャップを埋めることのできる「アジェンティック」なLLMを開発するためのパターンを探求することを目的としている。
論文 参考訳(メタデータ) (2025-10-10T10:32:39Z) - Executable Analytic Concepts as the Missing Link Between VLM Insight and Precise Manipulation [70.8381970762877]
VLM(Vision-Language Models)は、セマンティック推論とタスク計画において顕著な能力を示す。
本稿では,VLMに基づく推論を実行可能な解析概念を通じて基礎づける新しいフレームワークであるGRACEを紹介する。
G GRACEは高レベル命令理解と低レベルロボット制御の統一的で解釈可能なインターフェースを提供する。
論文 参考訳(メタデータ) (2025-10-09T09:08:33Z) - The Landscape of Agentic Reinforcement Learning for LLMs: A Survey [103.78397717362797]
エージェント強化学習(Agentic RL)の出現は、大規模言語モデル(LLM RL)に適用された従来の強化学習からパラダイムシフトを示している。
本研究では, LLM-RLの縮退した単段階マルコフ決定過程(MDPs)と, エージェントRLを定義する部分可観測マルコフ決定過程(POMDPs)とを対比することにより, この概念シフトを定式化する。
論文 参考訳(メタデータ) (2025-09-02T17:46:26Z) - A Survey of Self-Evolving Agents: On Path to Artificial Super Intelligence [87.08051686357206]
大きな言語モデル(LLM)は強力な能力を示しているが、基本的に静的である。
LLMはますますオープンでインタラクティブな環境にデプロイされているため、この静的な性質は重要なボトルネックとなっている。
この調査は、自己進化エージェントの体系的で包括的なレビューを初めて提供する。
論文 参考訳(メタデータ) (2025-07-28T17:59:05Z) - GATSim: Urban Mobility Simulation with Generative Agents [12.893057419094932]
GATSimは、豊かな人間のような振る舞いを持つ生成エージェントを用いて、都市移動をシミュレートする新しいフレームワークである。
従来のアプローチとは異なり、GATSimエージェントは、多様な社会経済プロファイル、個人のライフスタイル、心理的に情報を得た記憶システムによって形成される進化する嗜好によって特徴付けられる。
筆者らは,プロトタイプシステムを実装し,系統的検証を行い,生成エージェントが信頼性とコヒーレントな旅行行動を生成することを示す。
論文 参考訳(メタデータ) (2025-06-29T15:52:16Z) - The Influence of Human-inspired Agentic Sophistication in LLM-driven Strategic Reasoners [1.9417191498842046]
人工推論器の性能形成におけるエージェント的高度化の役割を評価する。
我々は3つのエージェント設計をベンチマークした: 単純なゲーム理論モデル、構造化されていないLLM-as-agentモデル、従来のエージェントフレームワークに統合されたLLM。
我々の分析は、25のエージェント構成にまたがる2000以上の推論サンプルを網羅し、人間にインスパイアされた認知構造が、LLMエージェントと人間の戦略的行動との整合性を高めることを示唆している。
論文 参考訳(メタデータ) (2025-05-14T13:51:24Z) - Navigating Motion Agents in Dynamic and Cluttered Environments through LLM Reasoning [69.5875073447454]
本稿では,大規模言語モデル(LLM)によって強化された動作エージェントを,動的・乱雑な環境における自律的なナビゲーションに向けて前進させる。
トレーニング不要なフレームワークは、マルチエージェント調整、クローズドループ計画、動的障害物回避を、リトレーニングや微調整なしでサポートしています。
論文 参考訳(メタデータ) (2025-03-10T13:39:09Z) - TrajLLM: A Modular LLM-Enhanced Agent-Based Framework for Realistic Human Trajectory Simulation [3.8106509573548286]
この作業は、Large Language Models(LLM)を活用して人間のモビリティをシミュレートし、従来のモデルにおける高コストやプライバシの問題に対処する。
我々の階層的枠組みは、実世界の人口統計と心理データを用いて、ペルソナ生成、活動選択、目的地予測を統合している。
論文 参考訳(メタデータ) (2025-02-26T00:13:26Z) - Dynamic planning in hierarchical active inference [0.0]
人間の脳が認知決定に関連する運動軌跡を推論し、導入する能力について述べる。
本研究では,アクティブ推論における動的計画の話題に焦点を当てた。
論文 参考訳(メタデータ) (2024-02-18T17:32:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。