論文の概要: MoE-TransMov: A Transformer-based Model for Next POI Prediction in Familiar & Unfamiliar Movements
- arxiv url: http://arxiv.org/abs/2512.17985v1
- Date: Fri, 19 Dec 2025 15:03:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.139315
- Title: MoE-TransMov: A Transformer-based Model for Next POI Prediction in Familiar & Unfamiliar Movements
- Title(参考訳): MoE-TransMov:Familiar and Unfamiliar Movementにおける次のPOI予測のためのトランスフォーマーベースモデル
- Authors: Ruichen Tan, Jiawei Xue, Kota Tsubouchi, Takahiro Yabe, Satish V. Ukkusuri,
- Abstract要約: MoE-TransMovは、Mixture-of-Experts (MoE)アーキテクチャを備えたトランスフォーマーベースのモデルである。
我々は,動きを慣れ親しんだ,馴染みのないカテゴリーに分類し,予測精度を向上させるための専門的専門家ネットワークを開発する。
提案手法は, 適応ゲーティングネットワークと自己認識機構を統合し, 異なる移動環境において, 最も関連性の高い専門家モデルを動的に選択する。
- 参考スコア(独自算出の注目度): 6.942569415880399
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate prediction of the next point of interest (POI) within human mobility trajectories is essential for location-based services, as it enables more timely and personalized recommendations. In particular, with the rise of these approaches, studies have shown that users exhibit different POI choices in their familiar and unfamiliar areas, highlighting the importance of incorporating user familiarity into predictive models. However, existing methods often fail to distinguish between the movements of users in familiar and unfamiliar regions. To address this, we propose MoE-TransMov, a Transformer-based model with a Transformer model with a Mixture-of-Experts (MoE) architecture designed to use one framework to capture distinct mobility patterns across different moving contexts without requiring separate training for certain data. Using user-check-in data, we classify movements into familiar and unfamiliar categories and develop a specialized expert network to improve prediction accuracy. Our approach integrates self-attention mechanisms and adaptive gating networks to dynamically select the most relevant expert models for different mobility contexts. Experiments on two real-world datasets, including the widely used but small open-source Foursquare NYC dataset and the large-scale Kyoto dataset collected with LY Corporation (Yahoo Japan Corporation), show that MoE-TransMov outperforms state-of-the-art baselines with notable improvements in Top-1, Top-5, Top-10 accuracy, and mean reciprocal rank (MRR). Given the results, we find that by using this approach, we can efficiently improve mobility predictions under different moving contexts, thereby enhancing the personalization of recommendation systems and advancing various urban applications.
- Abstract(参考訳): ヒトの移動軌道における次の関心点(POI)の正確な予測は、よりタイムリーでパーソナライズされたレコメンデーションを可能にするため、位置情報ベースのサービスに不可欠である。
特に、これらのアプローチの台頭に伴い、ユーザが慣れ親しんだり馴染みのない領域で異なるPOI選択を示すことを示し、予測モデルにユーザ親しみを組み込むことの重要性を強調している。
しかし,既存の手法では,慣れ親しんだ地域と馴染みのない地域でのユーザの動きを区別できない場合が多い。
そこで本研究では,トランスフォーマーモデルとMixture-of-Experts(MoE)アーキテクチャを組み合わせたモデルであるMoE-TransMovを提案する。
ユーザチェックインデータを用いて、動作を慣れ親しんだカテゴリと馴染みのないカテゴリに分類し、予測精度を向上させるための専門的専門家ネットワークを開発する。
提案手法は, 適応ゲーティングネットワークと自己認識機構を統合し, 異なる移動環境において, 最も関連性の高い専門家モデルを動的に選択する。
広く使われているが小さなオープンソースFoursquare NYCデータセットとLY Corporation(Yahoo Japan Corporation)が収集した大規模な京都データセットを含む2つの実世界のデータセットの実験では、MoE-TransMovはTop-1、Top-5、Top-10の精度、平均相互ランク(MRR)において、最先端のベースラインを上回っている。
その結果, 異なる移動状況下での移動予測を効率よく改善し, 推薦システムのパーソナライズを向上し, 様々な都市への応用を進展させることができることがわかった。
関連論文リスト
- Mixture-of-Experts for Personalized and Semantic-Aware Next Location Prediction [20.726107072683575]
NextLocMoEは、大きな言語モデル(LLM)上に構築され、デュアルレベルのMixture-of-Experts(MoE)設計を中心に構築された、新しいフレームワークである。
我々のアーキテクチャは2つの特別なモジュールで構成されている: ロケーションセマンティックス MoE は、位置の豊富な機能的意味をエンコードする埋め込みレベルで動作し、パーソナライズされた MoE は、トランスフォーマーのバックボーンに埋め込まれ、個々のユーザーモビリティパターンに動的に適応する。
論文 参考訳(メタデータ) (2025-05-30T13:45:19Z) - MoveGPT: Scaling Mobility Foundation Models with Spatially-Aware Mixture of Experts [17.430772832222793]
MoveGPTは、スケーリングの障壁を克服するために特別に設計された、大規模な基盤モデルである。
幅広いダウンストリームタスクにまたがって新たな最先端技術を確立し、平均して35%のパフォーマンス向上を実現している。
また、目に見えない都市に強力な一般化能力を示す。
論文 参考訳(メタデータ) (2025-05-24T12:17:47Z) - Unified Human Localization and Trajectory Prediction with Monocular Vision [64.19384064365431]
MonoTransmotionはトランスフォーマーベースのフレームワークで、モノクロカメラのみを使用して、ローカライゼーションと予測タスクを共同で解決する。
両タスクを統合フレームワークで共同でトレーニングすることにより,ノイズの多い入力による実環境シナリオにおいて,我々の手法がより堅牢であることを示す。
論文 参考訳(メタデータ) (2025-03-05T14:18:39Z) - Multi-Transmotion: Pre-trained Model for Human Motion Prediction [68.87010221355223]
マルチトランスモーション(Multi-Transmotion)は、モダリティ事前トレーニング用に設計された革新的なトランスフォーマーベースのモデルである。
提案手法は,下流タスクにおける各種データセット間の競合性能を示す。
論文 参考訳(メタデータ) (2024-11-04T23:15:21Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Context-aware multi-head self-attentional neural network model for next
location prediction [19.640761373993417]
我々は、歴史的位置情報から位置パターンを学習するマルチヘッド自己注意ニューラルネットワーク(A)を利用する。
提案モデルが他の最先端予測モデルより優れていることを示す。
我々は,提案モデルが文脈を考慮した移動予測に不可欠であると信じている。
論文 参考訳(メタデータ) (2022-12-04T23:40:14Z) - Self-supervised Graph-based Point-of-interest Recommendation [66.58064122520747]
Next Point-of-Interest (POI)レコメンデーションは、ロケーションベースのeコマースにおいて重要なコンポーネントとなっている。
自己教師付きグラフ強化POIレコメンデーション(S2GRec)を次のPOIレコメンデーションのために提案する。
特に,グローバル・トランジション・グラフと局所軌道グラフの両方からの協調的な信号を組み込むために,グラフ強化セルフアテンテート・レイヤを考案した。
論文 参考訳(メタデータ) (2022-10-22T17:29:34Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。