論文の概要: Learning Multi-Modal Mobility Dynamics for Generalized Next Location Recommendation
- arxiv url: http://arxiv.org/abs/2512.22605v1
- Date: Sat, 27 Dec 2025 14:23:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.132678
- Title: Learning Multi-Modal Mobility Dynamics for Generalized Next Location Recommendation
- Title(参考訳): 一般化次位置レコメンデーションのためのマルチモーダルモビリティダイナミクスの学習
- Authors: Junshu Dai, Yu Wang, Tongya Zheng, Wei Ji, Qinghong Guo, Ji Cao, Jie Song, Canghong Jin, Mingli Song,
- Abstract要約: 位置推薦タスクの移動力学を特徴付けるために,マルチモーダルな時空間知識を利用する。
まず、マルチモーダル表現のための統合時空間関係グラフ(STRG)を構築する。
第二に、異なるモーダルの空間時間グラフ表現を融合するゲーティング機構を設計する。
- 参考スコア(独自算出の注目度): 51.00494428978262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The precise prediction of human mobility has produced significant socioeconomic impacts, such as location recommendations and evacuation suggestions. However, existing methods suffer from limited generalization capability: unimodal approaches are constrained by data sparsity and inherent biases, while multi-modal methods struggle to effectively capture mobility dynamics caused by the semantic gap between static multi-modal representation and spatial-temporal dynamics. Therefore, we leverage multi-modal spatial-temporal knowledge to characterize mobility dynamics for the location recommendation task, dubbed as \textbf{M}ulti-\textbf{M}odal \textbf{Mob}ility (\textbf{M}$^3$\textbf{ob}). First, we construct a unified spatial-temporal relational graph (STRG) for multi-modal representation, by leveraging the functional semantics and spatial-temporal knowledge captured by the large language models (LLMs)-enhanced spatial-temporal knowledge graph (STKG). Second, we design a gating mechanism to fuse spatial-temporal graph representations of different modalities, and propose an STKG-guided cross-modal alignment to inject spatial-temporal dynamic knowledge into the static image modality. Extensive experiments on six public datasets show that our proposed method not only achieves consistent improvements in normal scenarios but also exhibits significant generalization ability in abnormal scenarios.
- Abstract(参考訳): 人間の移動性の正確な予測は、位置推薦や避難提案などの社会経済的影響を生じさせている。
しかし, 従来の手法では, 静的なマルチモーダル表現と空間時間的ダイナミクスのセマンティックなギャップに起因する移動力学を効果的に捉えるのに苦慮している。
そこで我々は,複数モーダルな時空間知識を活用して,位置推薦タスクの移動力学を特徴付ける(「textbf{M}ulti-\textbf{M}odal \textbf{Mob}ility」(「\textbf{M}$^3$\textbf{ob}ility」)。
まず,大言語モデル (LLMs) に拡張された時空間知識グラフ (STKG) によって得られた機能的意味と空間的時間的知識を活用することで,多モーダル表現のための統合時空間関係グラフ(STRG)を構築する。
第2に,異なるモダリティの時空間グラフ表現を融合させるゲーティング機構を設計し,静的な画像モダリティに時空間動的知識を注入するためのSTKG-Guidedクロスモーダルアライメントを提案する。
6つの公開データセットに対する大規模な実験により,提案手法は通常のシナリオにおいて一貫した改善を達成できるだけでなく,異常なシナリオにおいて有意な一般化能力を示すことが示された。
関連論文リスト
- Meta Dynamic Graph for Traffic Flow Prediction [4.6060644265855775]
動的メタグラフ(MetaDG)と呼ばれる交通予測のためのフレームワークを提案する。
ノード表現の動的グラフ構造をモデル時間力学に明示的に活用する。
4つの実世界のデータセットに対する大規模な実験は、MetaDGの有効性を検証する。
論文 参考訳(メタデータ) (2026-01-15T12:15:54Z) - RainDiff: End-to-end Precipitation Nowcasting Via Token-wise Attention Diffusion [64.49056527678606]
本稿では,U-Net拡散モデルだけでなく,レーダ時間エンコーダにも統合されたトークンワイドアテンションを提案する。
従来の手法とは異なり,本手法は,画素空間拡散の典型的な高資源コストを発生させることなく,アーキテクチャに注意を集中させる。
実験と評価により,提案手法は複雑な降水予測シナリオにおいて,最先端の手法,ロバストネスの局所的忠実度,一般化,優位性を著しく上回ることを示した。
論文 参考訳(メタデータ) (2025-10-16T17:59:13Z) - Spatio-Temporal Multi-Subgraph GCN for 3D Human Motion Prediction [12.766305983943314]
グラフ畳み込みネットワーク(GCN)は、人間の動作における関節間の関係を捉える能力において、この分野において広く注目を集めている。
複雑な動きを捉えるための時空間多時間ネットワーク(STMS-GCN)を提案する。
論文 参考訳(メタデータ) (2024-12-31T07:22:39Z) - Multimodal joint prediction of traffic spatial-temporal data with graph sparse attention mechanism and bidirectional temporal convolutional network [25.524351892847257]
本稿では,二方向時間畳み込みネットワーク(GSABT)を用いたグラフスパース注意機構(Graph Sparse Attention Mechanism)を提案する。
自己注意重みを乗じて空間的局所的特徴を捉えるマルチモーダルグラフを用いて,空間的グローバルな特徴を得るためにTop-Uスパースアテンション機構を用いる。
我々は空間次元と時間次元の両方に柔軟に拡張できる多モード共同予測フレームワークを設計した。
論文 参考訳(メタデータ) (2024-12-24T12:57:52Z) - Efficient High-Resolution Visual Representation Learning with State Space Model for Human Pose Estimation [60.80423207808076]
高解像度の視覚表現を維持しながら長距離依存関係をキャプチャすることは、人間のポーズ推定のような密集した予測タスクに不可欠である。
マルチスケールの畳み込み操作で視覚状態空間モデルを拡張する動的ビジュアル状態空間(DVSS)ブロックを提案する。
HRVMambaは効率的な高分解能表現学習のための新しいモデルである。
論文 参考訳(メタデータ) (2024-10-04T06:19:29Z) - Triplet Attention Transformer for Spatiotemporal Predictive Learning [9.059462850026216]
本稿では,フレーム間動的特徴とフレーム内静的特徴の両方を捉えるために,革新的な三重項注意変換器を提案する。
このモデルはトリプレット・アテンション・モジュール(TAM)を組み込んだもので、時間、空間、チャネル次元における自己アテンションのメカニズムを探求することで、従来のリカレント・ユニットを置き換える。
論文 参考訳(メタデータ) (2023-10-28T12:49:33Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。