論文の概要: Enhancing Large Language Models for Mobility Analytics with Semantic Location Tokenization
- arxiv url: http://arxiv.org/abs/2506.11109v1
- Date: Sun, 08 Jun 2025 02:17:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.469347
- Title: Enhancing Large Language Models for Mobility Analytics with Semantic Location Tokenization
- Title(参考訳): 意味的位置トークン化による移動分析のための大規模言語モデルの強化
- Authors: Yile Chen, Yicheng Tao, Yue Jiang, Shuai Liu, Han Yu, Gao Cong,
- Abstract要約: 移動分析のための大規模言語モデル(LLM)を大幅に強化する新しいフレームワークであるQT-Mobを提案する。
QT-Mobは、場所を表すためにコンパクトでセマンティックにリッチなトークンを学ぶ、ロケーショントークン化モジュールを導入した。
3つの実世界のデータセットの実験は、次の位置予測とモビリティ回復タスクの両方において優れた性能を示す。
- 参考スコア(独自算出の注目度): 29.17336622418242
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread adoption of location-based services has led to the generation of vast amounts of mobility data, providing significant opportunities to model user movement dynamics within urban environments. Recent advancements have focused on adapting Large Language Models (LLMs) for mobility analytics. However, existing methods face two primary limitations: inadequate semantic representation of locations (i.e., discrete IDs) and insufficient modeling of mobility signals within LLMs (i.e., single templated instruction fine-tuning). To address these issues, we propose QT-Mob, a novel framework that significantly enhances LLMs for mobility analytics. QT-Mob introduces a location tokenization module that learns compact, semantically rich tokens to represent locations, preserving contextual information while ensuring compatibility with LLMs. Furthermore, QT-Mob incorporates a series of complementary fine-tuning objectives that align the learned tokens with the internal representations in LLMs, improving the model's comprehension of sequential movement patterns and location semantics. The proposed QT-Mob framework not only enhances LLMs' ability to interpret mobility data but also provides a more generalizable approach for various mobility analytics tasks. Experiments on three real-world dataset demonstrate the superior performance in both next-location prediction and mobility recovery tasks, outperforming existing deep learning and LLM-based methods.
- Abstract(参考訳): 位置情報ベースのサービスの普及により、膨大なモビリティデータが生成され、都市環境におけるユーザの動きのダイナミクスをモデル化する大きな機会となっている。
最近の進歩は、モビリティ分析にLarge Language Models(LLM)を適用することに焦点を当てている。
しかし、既存の手法では、位置(離散ID)のセマンティック表現が不十分であり、LSM内のモビリティ信号のモデリングが不十分である(単一テンプレート命令の微調整)。
これらの問題に対処するため,モビリティ分析のためのLLMを大幅に強化する新しいフレームワークであるQT-Mobを提案する。
QT-Mobは、場所を表すためにコンパクトでセマンティックにリッチなトークンを学習し、LLMとの互換性を確保しながらコンテキスト情報を保存するロケーショントークンモジュールを導入した。
さらにQT-Mobは、学習したトークンをLLMの内部表現と整列する一連の相補的な微調整目的を取り入れ、シーケンシャルな動きパターンと位置意味論のモデルの理解を改善している。
提案するQT-Mobフレームワークは,LCMのモビリティデータの解釈能力を高めるだけでなく,さまざまなモビリティ分析タスクに対して,より一般化可能なアプローチを提供する。
3つの実世界のデータセットの実験は、次の位置予測とモビリティ回復タスクの両方において優れた性能を示し、既存のディープラーニングとLLMベースの手法より優れている。
関連論文リスト
- Exploring the Roles of Large Language Models in Reshaping Transportation Systems: A Survey, Framework, and Roadmap [51.198001060683296]
大型言語モデル(LLM)は、輸送上の課題に対処するための変革的な可能性を提供する。
LLM4TRは,交通におけるLSMの役割を体系的に分類する概念的枠組みである。
それぞれの役割について,交通予測や自律運転,安全分析,都市移動最適化など,さまざまな応用について検討した。
論文 参考訳(メタデータ) (2025-03-27T11:56:27Z) - A Foundational individual Mobility Prediction Model based on Open-Source Large Language Models [0.0]
大規模言語モデル(LLM)はドメイン固有のタスクに広く適用されている。
本稿では,基盤となるオープンソースのLCMに基づくモビリティ予測モデルをトレーニングするための,統一的な微調整フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T15:08:37Z) - Navigating Motion Agents in Dynamic and Cluttered Environments through LLM Reasoning [69.5875073447454]
本稿では,大規模言語モデル(LLM)によって強化された動作エージェントを,動的・乱雑な環境における自律的なナビゲーションに向けて前進させる。
トレーニング不要なフレームワークは、マルチエージェント調整、クローズドループ計画、動的障害物回避を、リトレーニングや微調整なしでサポートしています。
論文 参考訳(メタデータ) (2025-03-10T13:39:09Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - Mobility-LLM: Learning Visiting Intentions and Travel Preferences from Human Mobility Data with Large Language Models [22.680033463634732]
位置情報ベースのサービス(LBS)は、チェックインシーケンスを通じて多様な行動に関する広範な人間の移動データを蓄積している。
しかし、チェックインシーケンスを分析する既存のモデルでは、これらのシーケンスに含まれる意味を考慮できない。
複数のタスクのチェックインシーケンスを解析するために,大規模言語モデルを活用した新しいフレームワークである Mobility-LLM を提案する。
論文 参考訳(メタデータ) (2024-10-29T01:58:06Z) - The Synergy between Data and Multi-Modal Large Language Models: A Survey from Co-Development Perspective [53.48484062444108]
モデルとデータの開発は2つの別々のパスではなく、むしろ相互接続であることがわかった。
一方,MLLMはデータ開発に役立てることができるため,MLLMの性能向上に寄与する。
MLLMコミュニティにおけるデータモデル共同開発を促進するために,データモデル共同開発の観点からMLLMに関連する既存の研究を体系的にレビューする。
論文 参考訳(メタデータ) (2024-07-11T15:08:11Z) - Large Language Models as Urban Residents: An LLM Agent Framework for Personal Mobility Generation [19.566466895173924]
本稿では,Large Language Models (LLMs) をエージェントフレームワークに統合した,個人用モビリティ生成のための新しいアプローチを提案する。
本研究は,LLMと実際の都市モビリティデータとの整合性,信頼性の高い活動生成戦略の開発,都市モビリティにおけるLLM応用の探索という3つの研究課題に対処する。
論文 参考訳(メタデータ) (2024-02-22T18:03:14Z) - Chain-of-Planned-Behaviour Workflow Elicits Few-Shot Mobility Generation in LLMs [20.70758465552438]
チェーン・オブ・プランテッド・ビヘイビアは、移動意図発生の誤り率を57.8%から19.4%に大幅に下げる。
重力モデルのようなメカニスティックモビリティモデルは、移動意図を物理的モビリティに効果的にマッピングできる。
提案した CoPB ワークフローは GPT-4-turbo を容易にして,移動行動推論のための高品質なラベルを自動生成する。
論文 参考訳(メタデータ) (2024-02-15T09:58:23Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。