論文の概要: Learning Multi-Modal Mobility Dynamics for Generalized Next Location Recommendation
- arxiv url: http://arxiv.org/abs/2512.22605v1
- Date: Sat, 27 Dec 2025 14:23:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.132678
- Title: Learning Multi-Modal Mobility Dynamics for Generalized Next Location Recommendation
- Title(参考訳): 一般化次位置レコメンデーションのためのマルチモーダルモビリティダイナミクスの学習
- Authors: Junshu Dai, Yu Wang, Tongya Zheng, Wei Ji, Qinghong Guo, Ji Cao, Jie Song, Canghong Jin, Mingli Song,
- Abstract要約: 位置推薦タスクの移動力学を特徴付けるために,マルチモーダルな時空間知識を利用する。
まず、マルチモーダル表現のための統合時空間関係グラフ(STRG)を構築する。
第二に、異なるモーダルの空間時間グラフ表現を融合するゲーティング機構を設計する。
- 参考スコア(独自算出の注目度): 51.00494428978262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The precise prediction of human mobility has produced significant socioeconomic impacts, such as location recommendations and evacuation suggestions. However, existing methods suffer from limited generalization capability: unimodal approaches are constrained by data sparsity and inherent biases, while multi-modal methods struggle to effectively capture mobility dynamics caused by the semantic gap between static multi-modal representation and spatial-temporal dynamics. Therefore, we leverage multi-modal spatial-temporal knowledge to characterize mobility dynamics for the location recommendation task, dubbed as \textbf{M}ulti-\textbf{M}odal \textbf{Mob}ility (\textbf{M}$^3$\textbf{ob}). First, we construct a unified spatial-temporal relational graph (STRG) for multi-modal representation, by leveraging the functional semantics and spatial-temporal knowledge captured by the large language models (LLMs)-enhanced spatial-temporal knowledge graph (STKG). Second, we design a gating mechanism to fuse spatial-temporal graph representations of different modalities, and propose an STKG-guided cross-modal alignment to inject spatial-temporal dynamic knowledge into the static image modality. Extensive experiments on six public datasets show that our proposed method not only achieves consistent improvements in normal scenarios but also exhibits significant generalization ability in abnormal scenarios.
- Abstract(参考訳): 人間の移動性の正確な予測は、位置推薦や避難提案などの社会経済的影響を生じさせている。
しかし, 従来の手法では, 静的なマルチモーダル表現と空間時間的ダイナミクスのセマンティックなギャップに起因する移動力学を効果的に捉えるのに苦慮している。
そこで我々は,複数モーダルな時空間知識を活用して,位置推薦タスクの移動力学を特徴付ける(「textbf{M}ulti-\textbf{M}odal \textbf{Mob}ility」(「\textbf{M}$^3$\textbf{ob}ility」)。
まず,大言語モデル (LLMs) に拡張された時空間知識グラフ (STKG) によって得られた機能的意味と空間的時間的知識を活用することで,多モーダル表現のための統合時空間関係グラフ(STRG)を構築する。
第2に,異なるモダリティの時空間グラフ表現を融合させるゲーティング機構を設計し,静的な画像モダリティに時空間動的知識を注入するためのSTKG-Guidedクロスモーダルアライメントを提案する。
6つの公開データセットに対する大規模な実験により,提案手法は通常のシナリオにおいて一貫した改善を達成できるだけでなく,異常なシナリオにおいて有意な一般化能力を示すことが示された。
関連論文リスト
- RainDiff: End-to-end Precipitation Nowcasting Via Token-wise Attention Diffusion [64.49056527678606]
本稿では,U-Net拡散モデルだけでなく,レーダ時間エンコーダにも統合されたトークンワイドアテンションを提案する。
従来の手法とは異なり,本手法は,画素空間拡散の典型的な高資源コストを発生させることなく,アーキテクチャに注意を集中させる。
実験と評価により,提案手法は複雑な降水予測シナリオにおいて,最先端の手法,ロバストネスの局所的忠実度,一般化,優位性を著しく上回ることを示した。
論文 参考訳(メタデータ) (2025-10-16T17:59:13Z) - Multimodal joint prediction of traffic spatial-temporal data with graph sparse attention mechanism and bidirectional temporal convolutional network [25.524351892847257]
本稿では,二方向時間畳み込みネットワーク(GSABT)を用いたグラフスパース注意機構(Graph Sparse Attention Mechanism)を提案する。
自己注意重みを乗じて空間的局所的特徴を捉えるマルチモーダルグラフを用いて,空間的グローバルな特徴を得るためにTop-Uスパースアテンション機構を用いる。
我々は空間次元と時間次元の両方に柔軟に拡張できる多モード共同予測フレームワークを設計した。
論文 参考訳(メタデータ) (2024-12-24T12:57:52Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。