論文の概要: NextLocLLM: Location Semantics Modeling and Coordinate-Based Next Location Prediction with LLMs
- arxiv url: http://arxiv.org/abs/2410.09129v2
- Date: Sun, 28 Sep 2025 08:23:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.71211
- Title: NextLocLLM: Location Semantics Modeling and Coordinate-Based Next Location Prediction with LLMs
- Title(参考訳): NextLocLLM:LLMを用いた位置セマンティックモデリングと座標に基づく次位置予測
- Authors: Shuai Liu, Ning Cao, Yile Chen, Yue Jiang, George Rosario Jagadeesh, Gao Cong,
- Abstract要約: NextLocLLMは、位置予測を座標回帰として再構成し、両方の位置意味論にLLMを統合する新しいフレームワークである。
さまざまな都市での実験では、NextLocLLMは教師付き設定とゼロショット設定の両方で既存のベースラインを上回っている。
- 参考スコア(独自算出の注目度): 17.571983131811102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Next location prediction is a critical task in human mobility analysis.Existing methods typically formulate it as a classification task based on discrete location IDs, which hinders spatial continuity modeling and limits generalization to new cities. In this paper, we propose NextLocLLM, a novel framework that reformulates next-location prediction as coordinate regression and integrates LLMs for both location semantics encoding and coordinate-level prediction. To model location functional semantics, it constructs LLM-enhanced POI embeddings by leveraging language understanding capabilities of LLMs to extract functional semantics from textual descriptions of POI categories. These POI embeddings are combined with spatiotemporal trajectory representation and fed into the same LLM, enabling unified semantic and predictive modeling. A lightweight regression head generates coordinate outputs, which are mapped to top-k candidate locations via post-prediction retrieval module, ensuring structured outputs. Experiments across diverse cities show that NextLocLLM outperforms existing baselines in both supervised and zero-shot settings. Code is available at: https://github.com/liuwj2000/NexelocLLM.
- Abstract(参考訳): 次の位置予測は人間の移動分析において重要な課題であり、既存の方法では、空間連続性モデリングを妨げ、新しい都市に一般化を制限する離散的な位置IDに基づく分類タスクとして定式化されている。
本稿では,次の位置予測を座標回帰として再構成する新しいフレームワークであるNextLocLLMを提案する。
位置機能的セマンティクスをモデル化するために,LLMの言語理解機能を活用し,POIカテゴリのテキスト記述から機能的セマンティクスを抽出することにより,LLMを拡張したPOI埋め込みを構築する。
これらのPOI埋め込みは時空間軌道表現と組み合わせられ、同一のLLMに入力され、統一的なセマンティックおよび予測モデリングを可能にする。
軽量回帰ヘッドは、予測後検索モジュールを介してトップk候補位置にマッピングされた座標出力を生成し、構造化出力を確保する。
さまざまな都市での実験では、NextLocLLMは教師付き設定とゼロショット設定の両方で既存のベースラインを上回っている。
コードはhttps://github.com/liuwj2000/NexelocLLM.comで入手できる。
関連論文リスト
- A Hybrid Framework for Subject Analysis: Integrating Embedding-Based Regression Models with Large Language Models [6.780917788630485]
大規模言語モデル(LLM)は分類や要約作業に広く用いられているが、対象分析を行う能力は乏しい。
埋め込み型MLモデルをLLMと統合するハイブリッドフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-19T15:32:46Z) - Geography-Aware Large Language Models for Next POI Recommendation [21.03555605703108]
Next Point-of-Interest(POI)レコメンデーションタスクは,過去の移動データに基づいてユーザの次の目的地を予測することを目的としている。
GA-LLM(Geography-Aware Large Language Model)は,2つの特殊なコンポーネントを持つ大規模言語モデルを強化する新しいフレームワークである。
3つの実世界のデータセットの実験は、GA-LLMの最先端性能を実証している。
論文 参考訳(メタデータ) (2025-05-18T03:20:20Z) - Unleashing the Power of LLMs in Dense Retrieval with Query Likelihood Modeling [69.84963245729826]
大規模言語モデル(LLM)は魅力的な意味理解能力を示している。
デンス検索は情報検索(IR)において重要な課題であり、下流タスクを再びランク付けする基盤となっている。
我々は、差別的検索器のコントラスト学習のためのより良いバックボーンを得るために、QL推定の補助的タスクを導入する。
論文 参考訳(メタデータ) (2025-04-07T16:03:59Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - AgentMove: A Large Language Model based Agentic Framework for Zero-shot Next Location Prediction [7.007450097312181]
本稿では,汎用的な次の位置予測を実現するためのエージェント予測フレームワークであるAgentMoveを紹介する。
AgentMoveでは、まず移動予測タスクを分解し、個々の移動パターンマイニングのための時空間記憶を含む特定のモジュールを設計する。
2つの異なる情報源によるモビリティデータを用いた実験により、AgentMoveは12の指標のうち8つの指標のうち3.33%から8.57%を突破した。
論文 参考訳(メタデータ) (2024-08-26T02:36:55Z) - A Comprehensive Evaluation of Large Language Models on Temporal Event Forecasting [45.0261082985087]
時間的事象予測のための大規模言語モデル(LLM)を総合的に評価する。
LLMの入力に生テキストを直接統合しても、ゼロショット補間性能は向上しないことがわかった。
対照的に、特定の複雑なイベントや微調整LDMに生テキストを組み込むことで、性能が大幅に向上する。
論文 参考訳(メタデータ) (2024-07-16T11:58:54Z) - LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - Found in the Middle: How Language Models Use Long Contexts Better via
Plug-and-Play Positional Encoding [78.36702055076456]
本稿では,マルチスケール位置決めについて紹介する。
(Ms-PoE)は、シンプルで効果的なプラグアンドプレイ方式で、キャパシティを向上させる。
LLMはコンテキストの中央に位置する関連情報を扱う。
論文 参考訳(メタデータ) (2024-03-05T04:58:37Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - How Can Large Language Models Understand Spatial-Temporal Data? [12.968952073740796]
本稿では,時空間予測に大規模言語モデルを活用する革新的なアプローチSTG-LLMを紹介する。
1 STG-Tokenizer: この空間時間グラフトークンは、複雑なグラフデータを、空間的および時間的関係の両方を捉える簡潔なトークンに変換する; 2) STG-Adapter: 線形符号化層と復号層からなるこの最小限のアダプタは、トークン化されたデータとLCMの理解のギャップを埋める。
論文 参考訳(メタデータ) (2024-01-25T14:03:15Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models [52.98743860365194]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - Making Large Language Models A Better Foundation For Dense Retrieval [19.38740248464456]
デンス検索では,クエリとドキュメント間の意味的関係を表現するために,識別テキストの埋め込みを学習する必要がある。
意味理解におけるLLMの強い能力を考えると、大きな言語モデル(LLM)の使用の恩恵を受けるかもしれない。
本稿では,LLaRA (LLM adapted for dense RetrievAl) を提案する。
論文 参考訳(メタデータ) (2023-12-24T15:10:35Z) - MLLM-DataEngine: An Iterative Refinement Approach for MLLM [62.30753425449056]
本稿では,データ生成,モデルトレーニング,評価を橋渡しする新しいクローズドループシステムを提案する。
各ループ内で、MLLM-DataEngineはまず評価結果に基づいてモデルの弱点を分析する。
ターゲットとして,異なる種類のデータの比率を調整する適応型バッドケースサンプリングモジュールを提案する。
品質については、GPT-4を用いて、各データタイプで高品質なデータを生成する。
論文 参考訳(メタデータ) (2023-08-25T01:41:04Z) - LLMMaps -- A Visual Metaphor for Stratified Evaluation of Large Language
Models [13.659853119356507]
大規模言語モデル(LLM)は自然言語処理に革命をもたらし、様々なタスクにおいて印象的な能力を示した。
彼らは幻覚を起こす傾向があり、モデルがその反応の中で誤った情報や誤った情報を公開する。
ユーザによるQ&Aデータセットに対するLLMの性能評価を可能にする新しい可視化手法として,LLMMapsを提案する。
論文 参考訳(メタデータ) (2023-04-02T05:47:09Z) - Why do Nearest Neighbor Language Models Work? [93.71050438413121]
言語モデル(LM)は、すでに見られる文脈の表現を逐次計算することで、テキストの確率を計算する。
Retrieval-augmented LMは、大規模なデータストアから取得した情報にアクセスすることによって、標準的なニューラルLMよりも改善されている。
論文 参考訳(メタデータ) (2023-01-07T11:12:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。