論文の概要: UrbanMind: Urban Dynamics Prediction with Multifaceted Spatial-Temporal Large Language Models
- arxiv url: http://arxiv.org/abs/2505.11654v2
- Date: Wed, 21 May 2025 16:56:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.611561
- Title: UrbanMind: Urban Dynamics Prediction with Multifaceted Spatial-Temporal Large Language Models
- Title(参考訳): 都市ミンド:多面空間時間大言語モデルを用いた都市動態予測
- Authors: Yuhang Liu, Yingxue Zhang, Xin Zhang, Ling Tian, Yanhua Li, Jun Luo,
- Abstract要約: UrbanMind は多面的都市動態予測のための空間時空間 LLM フレームワークである。
UrbanMindのコアとなるMuffin-MAEは、特殊なマスキング戦略を備えた多面式フュージョンマスク自動エンコーダである。
複数の都市にまたがる実世界の都市データセットの実験は、UrbanMindが一貫して最先端のベースラインを上回っていることを示している。
- 参考スコア(独自算出の注目度): 18.051209616917042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding and predicting urban dynamics is crucial for managing transportation systems, optimizing urban planning, and enhancing public services. While neural network-based approaches have achieved success, they often rely on task-specific architectures and large volumes of data, limiting their ability to generalize across diverse urban scenarios. Meanwhile, Large Language Models (LLMs) offer strong reasoning and generalization capabilities, yet their application to spatial-temporal urban dynamics remains underexplored. Existing LLM-based methods struggle to effectively integrate multifaceted spatial-temporal data and fail to address distributional shifts between training and testing data, limiting their predictive reliability in real-world applications. To bridge this gap, we propose UrbanMind, a novel spatial-temporal LLM framework for multifaceted urban dynamics prediction that ensures both accurate forecasting and robust generalization. At its core, UrbanMind introduces Muffin-MAE, a multifaceted fusion masked autoencoder with specialized masking strategies that capture intricate spatial-temporal dependencies and intercorrelations among multifaceted urban dynamics. Additionally, we design a semantic-aware prompting and fine-tuning strategy that encodes spatial-temporal contextual details into prompts, enhancing LLMs' ability to reason over spatial-temporal patterns. To further improve generalization, we introduce a test time adaptation mechanism with a test data reconstructor, enabling UrbanMind to dynamically adjust to unseen test data by reconstructing LLM-generated embeddings. Extensive experiments on real-world urban datasets across multiple cities demonstrate that UrbanMind consistently outperforms state-of-the-art baselines, achieving high accuracy and robust generalization, even in zero-shot settings.
- Abstract(参考訳): 都市動態の理解と予測は、交通システムの管理、都市計画の最適化、公共サービスの向上に不可欠である。
ニューラルネットワークベースのアプローチは成功したが、多くの場合、タスク固有のアーキテクチャと大量のデータに依存し、さまざまな都市シナリオにまたがる一般化能力を制限する。
一方、Large Language Models (LLMs) は強力な推論と一般化能力を提供するが、時空間の都市力学への応用は未定である。
既存のLCMベースの手法では、多面的空間時間データを効果的に統合し、トレーニングとテストデータの分散シフトに対処できず、現実のアプリケーションにおける予測信頼性を制限している。
このギャップを埋めるため,都市動態予測のための空間時空間LLMフレームワークであるUrbanMindを提案する。
中心となるのが、Muffin-MAE(Muffin-MAE)である。Muffin-MAEは、複雑な空間的時間的依存関係と、多面的都市力学間の相互相関をキャプチャする特殊なマスキング戦略を備えた、多面的な融合マスク付きオートエンコーダである。
さらに,時空間の文脈的詳細をプロンプトにエンコードする意味認識型プロンプトと微調整型戦略を設計し,空間時空間パターンを推論するLLMの能力を向上する。
一般化をさらに向上するために、テストデータ再構成器を用いたテスト時間適応機構を導入し、LCM生成した埋め込みを再構築することで、UrbanMindが未確認テストデータに動的に適応できるようにする。
複数の都市にまたがる実際の都市データセットに関する大規模な実験では、UrbanMindは最先端のベースラインを一貫して上回り、ゼロショット設定でも高い精度と堅牢な一般化を実現している。
関連論文リスト
- Real-time Spatial Retrieval Augmented Generation for Urban Environments [2.8367942280334493]
本研究は,都市への生成AIの効果的な統合に必要なコンポーネントを定義するリアルタイム空間RAGアーキテクチャを提案する。
提案アーキテクチャは、スマートシティソリューションとデジタルツインを開発するソフトウェアコンポーネントのエコシステムであるFIWAREを用いて実装されている。
論文 参考訳(メタデータ) (2025-05-04T21:57:58Z) - Collaborative Imputation of Urban Time Series through Cross-city Meta-learning [54.438991949772145]
メタ学習型暗黙的ニューラル表現(INR)を利用した新しい協調的計算パラダイムを提案する。
次に,モデルに依存しないメタ学習による都市間協調学習手法を提案する。
20のグローバル都市から得られた多様な都市データセットの実験は、我々のモデルの優れた計算性能と一般化可能性を示している。
論文 参考訳(メタデータ) (2025-01-20T07:12:40Z) - SMA-Hyper: Spatiotemporal Multi-View Fusion Hypergraph Learning for Traffic Accident Prediction [2.807532512532818]
現在のデータ駆動モデルは、しばしばデータ空間と多様な都市データソースの統合に苦しむ。
本稿では,交通事故予測のための動的学習フレームワークを提案する。
これは、高次のクロスリージョン学習を可能にするデュアル適応グラフ学習機構を組み込んでいる。
また、事故データと都市機能の複数のビューを融合させる事前注意機構も採用している。
論文 参考訳(メタデータ) (2024-07-24T21:10:34Z) - UrbanGPT: Spatio-Temporal Large Language Models [34.79169613947957]
本稿では,時空間エンコーダと命令調整パラダイムをシームレスに統合するUrbanPTを提案する。
我々は、様々な公開データセットに対して広範囲な実験を行い、異なる時間的予測タスクをカバーした。
結果は、慎重に設計されたアーキテクチャを持つUrbanPTが、最先端のベースラインを一貫して上回っていることを一貫して示しています。
論文 参考訳(メタデータ) (2024-02-25T12:37:29Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - Unified Data Management and Comprehensive Performance Evaluation for
Urban Spatial-Temporal Prediction [Experiment, Analysis & Benchmark] [78.05103666987655]
この研究は、多様な都市空間時間データセットにアクセスし活用する際の課題に対処する。
都市空間・時空間のビッグデータ用に設計された統合ストレージフォーマットであるアトミックファイルを導入し,40種類の多様なデータセットでその有効性を検証する。
多様なモデルとデータセットを使用して広範な実験を行い、パフォーマンスリーダーボードを確立し、有望な研究方向性を特定する。
論文 参考訳(メタデータ) (2023-08-24T16:20:00Z) - LibCity: A Unified Library Towards Efficient and Comprehensive Urban
Spatial-Temporal Prediction [74.08181247675095]
既存の分野には、さまざまなフォーマットで使用が難しいオープンソースデータなど、制限がある。
我々は、研究者に信頼性のある実験ツールと便利な開発フレームワークを提供するオープンソースライブラリ、LibCityを提案する。
論文 参考訳(メタデータ) (2023-04-27T17:19:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。