論文の概要: LIMP: Large Language Model Enhanced Intent-aware Mobility Prediction
- arxiv url: http://arxiv.org/abs/2408.12832v1
- Date: Fri, 23 Aug 2024 04:28:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-26 15:59:33.688661
- Title: LIMP: Large Language Model Enhanced Intent-aware Mobility Prediction
- Title(参考訳): LIMP: 大規模言語モデルによるIntent-Awareモビリティ予測
- Authors: Songwei Li, Jie Feng, Jiawei Chi, Xinyuan Hu, Xiaomeng Zhao, Fengli Xu,
- Abstract要約: 本稿では,新しい LIMP (LLMs for Intent-ware Mobility Prediction) フレームワークを提案する。
具体的には、LIMPは「Analyze-Abstract-Infer」(A2I)エージェントワークフローを導入し、移動意図推論のためのLLMの常識推論力を解き放つ。
実世界の2つのデータセット上でLIMPを評価し,次の位置予測における精度の向上と効果的な意図推定を行った。
- 参考スコア(独自算出の注目度): 5.7042182940772275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human mobility prediction is essential for applications like urban planning and transportation management, yet it remains challenging due to the complex, often implicit, intentions behind human behavior. Existing models predominantly focus on spatiotemporal patterns, paying less attention to the underlying intentions that govern movements. Recent advancements in large language models (LLMs) offer a promising alternative research angle for integrating commonsense reasoning into mobility prediction. However, it is a non-trivial problem because LLMs are not natively built for mobility intention inference, and they also face scalability issues and integration difficulties with spatiotemporal models. To address these challenges, we propose a novel LIMP (LLMs for Intent-ware Mobility Prediction) framework. Specifically, LIMP introduces an "Analyze-Abstract-Infer" (A2I) agentic workflow to unleash LLM's commonsense reasoning power for mobility intention inference. Besides, we design an efficient fine-tuning scheme to transfer reasoning power from commercial LLM to smaller-scale, open-source language model, ensuring LIMP's scalability to millions of mobility records. Moreover, we propose a transformer-based intention-aware mobility prediction model to effectively harness the intention inference ability of LLM. Evaluated on two real-world datasets, LIMP significantly outperforms baseline models, demonstrating improved accuracy in next-location prediction and effective intention inference. The interpretability of intention-aware mobility prediction highlights our LIMP framework's potential for real-world applications. Codes and data can be found in https://github.com/tsinghua-fib-lab/LIMP .
- Abstract(参考訳): 都市計画や交通管理といった応用には人間の移動予測が不可欠であるが、人間の行動の背後にある複雑で暗黙的な意図のため、依然として困難である。
既存のモデルは、主に時空間パターンに注目し、動きを管理する基本的な意図に注意を払わない。
大規模言語モデル(LLM)の最近の進歩は、コモンセンス推論をモビリティ予測に組み込むための、有望な代替研究角度を提供する。
しかし、LLMはモビリティの意図推論のためにネイティブに構築されていないため、スケーラビリティの問題や時空間モデルとの統合の難しさにも直面するため、これは自明な問題である。
これらの課題に対処するため、我々は新しいLIMP(LLMs for Intent-ware Mobility Prediction)フレームワークを提案する。
特に、LIMPは、移動意図推論のための LLM の常識推論力を解き放つために、A2I (Analyze-Abstract-Infer) エージェントワークフローを導入した。
さらに,商業LLMから小規模のオープンソース言語モデルへ推論パワーを伝達する効率的な微調整手法を設計し,LIMPのスケーラビリティを数百万のモビリティレコードに保証する。
さらに,LLMの意図推論能力を効果的に活用するために,変圧器を用いた意図認識型モビリティ予測モデルを提案する。
2つの実世界のデータセットで評価され、LIMPはベースラインモデルよりも大幅に優れ、次の位置予測と効果的な意図推論の精度が向上した。
意図認識型モビリティ予測の解釈可能性は、LIMPフレームワークが現実世界のアプリケーションにもたらす可能性を強調します。
コードとデータはhttps://github.com/tsinghua-fib-lab/LIMP で確認できる。
関連論文リスト
- Annealed Winner-Takes-All for Motion Forecasting [48.200282332176094]
本稿では,AWTAの損失を最先端のモーション予測モデルと統合して性能を向上させる方法を示す。
我々の手法は、WTAを用いて訓練された任意の軌道予測モデルに容易に組み込むことができる。
論文 参考訳(メタデータ) (2024-09-17T13:26:17Z) - AgentMove: Predicting Human Mobility Anywhere Using Large Language Model based Agentic Framework [7.007450097312181]
本稿では,世界中の都市において,汎用的な移動予測を実現するためのエージェント予測フレームワークであるAgentMoveを紹介する。
AgentMoveでは、まず移動予測タスクを3つのサブタスクに分解し、それに対応するモジュールを設計してこれらのサブタスクを完成させる。
12都市の2つの情報源によるモビリティデータの実験では、AgentMoveはさまざまな指標において8%以上で最高のベースラインを達成している。
論文 参考訳(メタデータ) (2024-08-26T02:36:55Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Tokenize the World into Object-level Knowledge to Address Long-tail Events in Autonomous Driving [43.156632952193966]
従来のエンド・ツー・エンドの運転モデルは、トレーニング・ディストリビューション内での珍しいまたは目に見えない入力のために、長い尾のイベントに悩まされる。
オブジェクトレベルの知識に世界をトークン化する新しい多モード大規模言語モデル(MM-LLM)であるTOKENを提案する。
ToKENは、従来のエンドツーエンドの駆動モデルを活用することにより、データの不足と非効率なトークン化を効果的に軽減する。
論文 参考訳(メタデータ) (2024-07-01T04:34:50Z) - Traj-LLM: A New Exploration for Empowering Trajectory Prediction with Pre-trained Large Language Models [12.687494201105066]
本稿では,Traj-LLMを提案する。Large Language Models (LLMs) を用いて,エージェントの過去の/観測された軌跡やシーンセマンティクスから将来の動きを生成する可能性について検討する。
LLMの強力な理解能力は、ハイレベルなシーン知識とインタラクティブな情報のスペクトルを捉えている。
人為的な車線焦点認知機能を模倣し,先駆的なMambaモジュールを用いた車線認識確率論的学習を導入する。
論文 参考訳(メタデータ) (2024-05-08T09:28:04Z) - LC-LLM: Explainable Lane-Change Intention and Trajectory Predictions with Large Language Models [8.624969693477448]
既存の動き予測手法は、特に長期予測精度と解釈可能性の観点から、改善の余地が十分にある。
本稿では,大規模言語モデルの強い推論能力と自己説明能力を活用する,説明可能なレーン変更予測モデルLC-LLMを提案する。
論文 参考訳(メタデータ) (2024-03-27T08:34:55Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - Where Would I Go Next? Large Language Models as Human Mobility
Predictors [21.100313868232995]
人間の移動データを解析するためのLLMの言語理解と推論能力を活用する新しい手法 LLM-Mob を提案する。
本手法の総合評価により,LLM-Mobは正確かつ解釈可能な予測を行うのに優れていることが明らかとなった。
論文 参考訳(メタデータ) (2023-08-29T10:24:23Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。